domingo, 3 de abril de 2011

2.2 DISPOSITIVOS DE ENTRADA Y SALIDA

Las partes del computador (aspecto físico: hardware), también llamadas dispositivos de entrada/salida (E/S), son todos aquellos artefactos electrónicos que observamos ilustrados en nuestra computadora.
Partes de la Computadora
CPU (Unidad Central de Proceso)

El CPU es una de las partes fundamentales del Hardware. Contiene los circuitos, los procesadores y las memorias que ejecutan las transferencias de información.

La unidad central de proceso (CPU), es un conjunto de circuitos electrónicos digitales encargados de recibir la información de los dispositivos de entrada/salida, procesarla y enviarla de nuevo a los dispositivos de entrada/salida, constituyéndose en la parte más importante del computador.
CPU
Pantalla o Monitor
Es un periférico de salida y en su superficie luminiscente es en la que se reproducen las imágenes. El monitor es el que mantiene informado al usuario de lo que está haciendo el computador en cada momento.

Las características de un monitor dependen de la calidad de la imagen y esta del número de píxeles que dispone y del número de colores que pueda mostrar.

Un monitor VGA muestra apenas 16 colores y una resolución de 640 x 480 (baja resolución). Un monitor SVGA llega hasta 16 millones de colores con resolución de 1280 x 1024 (altísima resolución).
Pantalla o Monitor

> Ratón o Mouse

Es un dispositivo de forma plana cuyo desplazamiento sobre una superficie lisa horizontal se refleja fielmente en el movimiento del cursor en la pantalla (o monitor) de visualización.
Existen mouse que funciona con un cable conectado al computador y los que operan sin cable y transmiten las órdenes por rayos infrarrojos (también llamado mouse inalámbrico).
Ratón o Mouse
> Unidad de Disquetes
Las unidades de disquetes (o drivers de disquete) son dispositivos de entrada y salida que permiten el cargue y descargue masivo de información al computador, así como su almacenamiento y transporte.

Operan grabando y leyendo la información sobre la superficie de un disquete, modificando sus características magnéticas, por lo cual son un medio magnético.
Unidad de Disquete
> Unidad (o Drive) de CD-Rom
Es la unidad encargada de leer un disco óptico, es decir de lectura mediante un rayo láser, no recargable utilizado para el almacenamiento de información en sistemas informáticos.
Las siglas de la expresión CD-Rom son Compact Disc Read-Only Memory que en español es disco compacto de sólo lectura.
Unidad de CD-Rom
> Quemador (o Grabadora) de CD
Esta unidad no sólo lee los cd’s sino que permite grabar en ellos cualquier clase de información, utilizando un programa especialmente diseñado para esta función (Nero, Roxio CD Creator, etc.).
Quemador o Grabadora de CD
> Unidad de DVD
Esta unidad se encarga de leer DVD (disco de video digital), que es un formato de almacenamiento de datos digitales, tiene una gran capacidad de almacenamiento. Permite guardar desde 4.5 GB (gigabytes) hasta 17 GB.
Unidad de DVD
> Teclado

El teclado es permite la comunicación con la computadora e ingresar la información. Es fundamental para utilizar cualquier aplicación.

El teclado más comúnmente utilizado tiene 102 teclas, agrupadas en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control.

Se utiliza como una máquina de escribir, presionando sobre la tecla que se quiere ingresar; algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras cuya función cambia según el programa que se esté usando.

Teclado de una Computadora

2.1 ARQUITECTURA DE COMPUTADORES

Arquitectura (informática), término general que se aplica a la estructura de un sistema informático o de una parte del mismo. El término se aplica también al diseño del software de sistema, por ejemplo, el sistema operativo, y a la combinación de hardware y software básico que comunica los aparatos de una red informática. La arquitectura de ordenadores se refiere a toda una estructura y a los detalles necesarios para que sea funcional, es decir, cubre sistemas informáticos, microprocesadores, circuitos y programas del sistema. Por lo general, el término no suele referirse a los programas de aplicación, como hojas de cálculo o procesadores de textos, que son necesarios para realizar una tarea pero no para que el sistema funcione.

Elementos de diseño
Al diseñar un sistema informático, se tienen en cuenta los cinco elementos fundamentales que componen el hardware: la unidad aritmético-lógica, la unidad de control, la memoria, la entrada, y la salida. La unidad aritmético-lógica realiza operaciones aritméticas y compara valores numéricos.
La unidad de control dirige el funcionamiento de la computadora recibiendo instrucciones del usuario y transformándolas en señales eléctricas que puedan ser comprendidas por los circuitos del ordenador. La combinación de la unidad aritmético-lógica y la unidad de control se denomina unidad central de procesamiento, o CPU (siglas en inglés = Central Process Unit). La memoria almacena instrucciones y datos. Las secciones de entrada y salida permiten respectivamente que la computadora reciba y envíe datos.
Se necesitan arquitecturas diferentes de hardware debido a las necesidades especializadas de los distintos sistemas y usuarios. Por ejemplo, un usuario puede necesitar que su sistema muestre gráficos de forma extremadamente rápida, mientras que otro tal vez necesite buscar eficazmente en una base de datos o tener un consumo bajo de energía, como en el caso de ordenadores personales portátiles.
Además del diseño del hardware, se debe considerar los sistemas operativos que harán funcionar el sistema. El software, como los lenguajes de programación y los sistemas operativos, hace que los detalles de la arquitectura del hardware resulten invisibles para el usuario. Por ejemplo, diferentes computadoras que empleen el lenguaje de programación C o el sistema operativo UNIX pueden parecer iguales desde el punto de vista del usuario aunque la arquitectura de hardware sea diferente.
Arquitectura de procesamiento
Una computadora ejecuta una instrucción en cinco pasos.
En primer lugar, la unidad de control recupera la instrucción desde la memoria; por ejemplo, la instrucción de sumar dos números.
En segundo lugar, la unidad de control descodifica la instrucción y la convierte en señales electrónicas que controlan la computadora.
En tercer lugar, la unidad de control recupera los datos necesarios para ejecutar la instrucción (en este caso, los dos números).
En cuarto lugar, la unidad aritmético-lógica ejecuta la operación (la adición de ambos números).
En quinto lugar, la unidad de control almacena el resultado (en este caso, el número resultante de la suma).
Las primeras computadoras sólo empleaban instrucciones sencillas, porque el coste de los dispositivos electrónicos capaces de ejecutar instrucciones complejas era muy elevado. A medida que este coste fue disminuyendo, a lo largo de la década de 1960, fueron posibles instrucciones más complicadas.
Las instrucciones complejas (instrucciones únicas que especifican operaciones múltiples) pueden ahorrar tiempo al evitar que el ordenador tenga que recuperar instrucciones adicionales. Por ejemplo, si se combinan siete operaciones en una instrucción, se eliminan seis de los pasos de recuperación de instrucciones, y la computadora tarda menos tiempo en procesar la operación correspondiente. Los ordenadores que combinan varias operaciones en una sola instrucción se denominan ordenadores CISC.
Sin embargo, la mayoría de los programas no utilizan instrucciones complejas, sino que constan esencialmente de instrucciones simples. Cuando estas instrucciones simples se ejecutan en una arquitectura CISC, el proceso es más lento, porque en un diseño CISC todas las instrucciones, simples o complejas, tardan más en ser descodificadas. Una estrategia alternativa es volver a diseños que utilizan sólo juegos de instrucciones sencillas y hacer que las operaciones más usadas se ejecuten más rápidamente para aumentar el rendimiento global. Las computadoras que emplean este diseño se llaman RISC.
Los diseños RISC son especialmente rápidos para realizar los cómputos numéricos necesarios en aplicaciones científicas, de gráficos y de ingeniería. Los llamados procesadores de señales digitales son arquitecturas CISC especializadas para acelerar el procesado de señales digitalizadas de audio y vídeo.
Arquitecturas abiertas y cerradas
La CPU de un ordenador está conectada con la memoria y con el mundo exterior a través de una arquitectura que puede ser abierta o cerrada. Las arquitecturas abiertas pueden ampliarse después de la construcción del sistema, generalmente añadiendo circuitos adicionales, por ejemplo, conectando al sistema principal un chip con un nuevo microprocesador. Las especificaciones del sistema se hacen públicas, lo que permite que otras empresas puedan fabricar los productos de expansión. Las arquitecturas cerradas suelen utilizarse en computadoras especializadas que no necesitan ampliaciones, como los microprocesadores que controlan los hornos de microondas. Algunos fabricantes de ordenadores han empleado arquitecturas cerradas para que sus clientes obtengan los circuitos de ampliación únicamente a través de ellos. El fabricante cobra más, pero las opciones para el consumidor se reducen.
Arquitectura de redes
Las computadoras se comunican por medio de redes. La red más sencilla es una conexión directa entre dos computadoras. Sin embargo, también pueden conectarse a través de grandes redes que permiten a los usuarios intercambiar datos, comunicarse mediante correo electrónico y compartir recursos, por ejemplo, impresoras.
Las computadoras pueden conectarse de distintas formas. En una configuración en anillo, los datos se transmiten a lo largo del anillo, y cada computadora examina los datos para determinar si van dirigidos a ella. Si no es así, los transmite a la siguiente computadora del anillo. Este proceso se repite hasta que los datos llegan a su destino. Una red en anillo permite la transmisión simultánea de múltiples mensajes, pero como varias computadoras comprueban cada mensaje, la transmisión de datos resulta más lenta.
En una configuración de bus, los ordenadores están conectados a través de un único conjunto de cables denominado bus. Un ordenador envía datos a otro transmitiendo a través del bus la dirección del receptor y los datos. Todos los ordenadores de la red examinan la dirección simultáneamente, y el indicado como receptor acepta los datos. A diferencia de una red en anillo, una red de bus permite que un ordenador envíe directamente datos a otro. Sin embargo, en cada momento sólo puede transmitir datos una de las computadoras, y las demás tienen que esperar para enviar sus mensajes.
En una configuración en estrella, los ordenadores están conectados con un elemento integrador llamado hub. Las computadoras de la red envían la dirección del receptor y los datos al hub, que conecta directamente los ordenadores emisor y receptor. Una red en estrella permite enviar simultáneamente múltiples mensajes, pero es más costosa porque emplea un dispositivo adicional -el hub- para dirigir los datos.
Avances recientes
Uno de los problemas en arquitectura de ordenadores es la diferencia entre la velocidad de la CPU y la velocidad con que la memoria proporciona instrucciones y datos. Las CPU modernas pueden procesar instrucciones en 3 nanosegundos (3.000 millonésimas de segundo). Un acceso a memoria típico, en cambio, requiere 70 nanosegundos, y cada juego de instrucciones puede suponer múltiples accesos. Para compensar esta disparidad se han diseñado nuevos chips que sitúan cerca de la CPU memorias muy rápidas llamadas caché. Debido a su proximidad a la CPU y a su rapidez, las memorias caché pueden suministrar instrucciones y datos más rápidamente que la memoria normal. La memoria caché almacena las instrucciones y datos empleados más frecuentemente, y mejora notablemente la eficacia de la computadora.
Aunque una memoria caché más grande puede contener más datos, también resulta proporcionalmente más lenta. Por eso, los arquitectos de ordenadores emplean diseños con múltiples memorias caché. En estos diseños se coloca la memoria caché más pequeña y rápida más cerca de la CPU, y se sitúa más lejos de ésta una segunda memoria caché mayor y más lenta. Esta disposición permite que la CPU utilice a velocidad máxima las instrucciones y datos más usados, y que sólo opere más lentamente cuando accede a la memoria caché secundaria. El empleo de memorias caché diferentes para instrucciones y datos también permite a la CPU recuperar simultáneamente una instrucción y un dato.
Otra estrategia para aumentar la velocidad y la eficacia es el uso de múltiples unidades aritmético-lógicas para efectuar operaciones simultáneas, la llamada ejecución superescalar. En este diseño, las instrucciones se recuperan en grupos. La unidad de control examina cada grupo para comprobar si contiene instrucciones que pueden ejecutarse a la vez. Algunos diseños llegan a ejecutar seis operaciones simultáneamente. Sin embargo, es raro que se ejecuten tantas instrucciones simultáneas, por lo que en promedio la CPU no llega a multiplicar por seis el rendimiento.
A veces se combinan varias computadoras en sistemas únicos llamados procesadores paralelos. Cuando una máquina tiene más de 1.000 unidades aritmético-lógicas, se dice que es masivamente paralela. Estas máquinas se usan fundamentalmente para cálculos científicos o de ingeniería, que exigen gran cantidad de cómputos numéricos. Se han construido ordenadores paralelos que contienen hasta 64.000 procesadores como el Transputer inventado en Inglaterra.
Estructura típica de un computador
Los conceptos, teorías y tecnologías de los últimos 150 años, en el área de la computación, finalmente se han concretizado con una arquitectura típica de un computador.
Desde las calculadoras de bolsillo hasta los supercomputadores, pasando por los computadores personales o de escritorio (PC's), las arquitecturas computacionales comparten elementos comunes: unidad central de proceso, memoria interna, periféricos, buses de comunicación, sistemas operacionales, conexiones a red.
En la siguiente figura se presenta un esquema de la organización de dichos elementos para un computador personal estándar:


Esta estructura coincide con la anticipada por Charles Babbage y Ada Byron hacia mediados del siglo 19. Esta estructura se denomina normalmente Estructura computacional Von Newmann, en honor a John Von Newmann que la sugirió y ayudó a implementarla en las primeras generaciones de computadores electrónicos.
La anterior arquitectuta típica de un PC corresponde al enfoque interno. Desde el punto de vista de un enfoque externo, un computador tipo PC se organiza como se muestra en la siguiente figura:


El Teclado y el Mouse
El teclado y el mouse (ratón) son dispositivos para entrar datos a un computador.
El Teclado contiene la distribución básica de una máquina de escribir tradicional. Adicionalmente, posee teclas funcionales y teclas especializadas. El hardware del procesador tiene ensamblados los programas que permiten reconocer la pulsación de teclas en el teclado y presentarla en la pantalla.
El Mouse, o ratón, es un dispositivo de señalización dodado de un mecanismo que permite reconocer el desplazamiento sobre una superficie plana y convertirlo en desplazamiento de un puntero en la pantalla. Este dispositivo resulta ser mucho más versátil e intuitivo que el teclado.
Otros periféricos
Hay muchos otros periféricos especializados que se pueden instalar a una carcasa; se pueden mencionar: el DVD (Digital Video Disk), el Hyperdisk (diskette de alta capacidad, 100 a 200 Mb), el scanner (o rastreador), el cartucho manejador de cinta magnética, las cámaras fotográficas digitales, cámaras de video, periféricos especiales para videojuegos, convertidores análogo-digitales, periféricos especiales para impresión (plotters e impreosras para diseño e ingeniería), máquinas-herramientas de control numérico, periféricos para efectos especiales, para música, etc.
También, en prácticamente cada área de aplicación de los computadores, y de las tecnologías informáticas, surgen dispositivos especiales para la interacción con el computador. Tal es el caso de la electrónica y microelectrónica, el diseño de circuitos eléctricos, el diseño en arquitectura, la simulación en Bioingeniería, etc.
Unidad Central de Proceso
Unidad central de proceso o UCP (conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta instrucciones.
La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos.
El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones.
Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).
Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada.
La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente.
La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción.
Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.
La CPU (Central Process Unit : Unidad Central de Proceso) puede ser un único chip o una serie de chips que realizan cálculos aritméticos y lógicos y que temporizan y controlan las operaciones de los demás elementos del sistema.
Las técnicas de miniaturización y de integración han posibilitado el desarrollo de un chip de CPU denominado microprocesador, que incorpora un sistema de circuitos y memoria adicionales.
El resultado son unos ordenadores más pequeños y la reducción del sistema de circuitos de soporte. Los microprocesadores se utilizan en la mayoría de los ordenadores personales de la actualidad.
En la tarjeta madre (mother board), como ya se dijo, se ensamblan el chip maestro (procesador principal), los demás procesadores y otros dispositivos periféricos básicos (manejo de video, de impresora, de mouse, de teclado, etc.). La mayoría de los chips de CPU y de los microprocesadores están compuestos de cuatro secciones funcionales: una unidad aritmética/lógica; unos registros; una sección de control y un bus interno.
La unidad aritmética/lógica (ALU : Arithmetic-Logic Unit) proporciona al chip su capacidad de cálculo y permite la realización de operaciones aritméticas y lógicas; maneja las diversas categorías de cálculo aritmético: cálculo con números enteros, cálculos con números reales, cálculos con otros tipos de datos numéricos .
Los registros son áreas de almacenamiento temporal que contienen datos, realizan un seguimiento de las instrucciones y conservan la ubicación y los resultados de dichas operaciones.
La sección de control tiene tres tareas principales: temporiza y regula las operaciones de la totalidad del sistema informático; su decodificador de instrucciones lee las configuraciones de datos en un registro designado y las convierte en una actividad, como podría ser sumar o comparar, y su unidad interruptora indica en qué orden utilizará la CPU las operaciones individuales y regula la cantidad de tiempo de CPU que podrá consumir cada operación. Los demás dispositivos que se conectan al chip central o a la tarjeta madre se llaman periféricos: discos flexibles (diskettes), discos duros, discos ópticos (CD), pantallas, multimedia, juegos, etc.
El último segmento de un chip de CPU o microprocesador es su bus interno, una red de líneas de comunicación que conecta los elementos internos del procesador y que también lleva hacia los conectores externos que enlazan al procesador con los demás elementos del sistema informático (periféricos). Los tres tipos de bus de la CPU son:
  1. el bus de control que consiste en una línea que detecta las señales de entrada y de otra línea que genera señales de control desde el interior de la CPU;
  2. el bus de dirección, una línea unidireccional que sale desde el procesador y que gestiona la ubicación de los datos en las direcciones de la memoria;
  3. y el bus de datos, una línea de transmisión bidireccional que lee los datos de la memoria y escribe nuevos datos en ésta.

2. CONCEPTOS BÁSICOS DE INFORMÁTICA

Informática o Computación, conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemáticas, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica.
Teoría de la información, teoría relacionada con las leyes matemáticas que rige la transmisión y el procesamiento de la información. Más concretamente, la teoría de la información se ocupa de la medición de la información y de la representación de la misma (como, por ejemplo, su codificación) y de la capacidad de los sistemas de comunicación para transmitir y procesar información.
La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad.
La teoría de la información fue desarrollada inicialmente, en 1948, por el ingeniero electrónico estadounidense Claude E. Shannon, en su artículo, A Mathematical Theory of Communication (Una Teoría matemática de la comunicación). La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación por radio.
La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e imágenes.
El término información se refiere a los mensajes transmitidos: voz o música transmitida por teléfono o radio, imágenes transmitidas por sistemas de televisión, información digital en sistemas y redes de computadoras, e incluso a los impulsos nerviosos en organismos vivientes. De forma más general, la teoría de la información ha sido aplicada en campos tan diversos como la cibernética, la criptografía, la lingüística, la psicología y la estadística.
El desarrollo y aplicación de la Teoría de Algoritmos y Programación ha hecho posible muchos de los avances relacionados con los lenguajes de programación, con las telecomunicaciones, con las redes, con la Teoría de Solución de Problemas a través de los computadores, y más recientemente con Internet.