Computador: un aliado indispensable
- En muchos hogares el poseer un computador es casi tan normal
como tener un televisor. Hasta los más pequeños saben de qué se trata. De hecho hay softwares (programas) con juegos didácticos
para los niños en edad pre-escolar.
El resto de
la familia lo usa para redactar sus informes, revisar enciclopedias digitales, escuchar música, jugar o conectarse a Internet.
El correo electrónico, los chat -foros de conversación instantáneos a través de la red- y hasta las videoconferencias se han
convertido en eventos cotidianos.
Los computadores
u ordenadores, formados por miles de pequeñísimos circuitos electrónicos, no piensan como un ser humano, pero funcionan
como un cerebro electrónico dotado de una gran capacidad de trabajo, que les permite interpretar y analizar de manera muy
rápida la información que reciben.
Estas máquinas casi no tienen límites. Podemos escribir, dibujar,
construir gráficos o tablas de datos, retocar imágenes, calcular, jugar, escuchar música o disfrutar de material multimedia
(sonido, texto e imágenes fijas o en movimiento al mismo tiempo), guardar la información que nos interesa, generarla e incluso
imprimirla.
Todo esto se logra mediante la combinación
de softwares o programas, que son los que dan al computador las instrucciones para trabajar, y el hardware, conformado por
los elementos materiales -componentes electrónicos, tarjetas, periféricos y el equipo- que permiten la instalación de los
programas.
Su gran memoria puede almacenar miles de datos y realizar varias
operaciones simultáneas. Hoy, la misma capacidad del primer computador electrónico, el Eniac, fabricado en 1947 en
Estados Unidos y que pesaba treinta toneladas, está contenida en pequeños circuitos integrados llamados chips, montados en
una estructura tan grande como un insecto, el microprocesador.
 |
Este moderno tablero de control del portaviones USS George
Washington permite vigilar y supervisar operaciones tanto en el espacio aéreo como en el marítimo. |
Los computadores ayudan al hombre en casi todas las áreas, desde
las más técnicas a las más creativas, como son la contabilidad
y el diseño gráfico. Incluso hay muchos trabajos manuales que se han automatizado y ahora son realizados por computadores
o, mejor dicho, por robots dirigidos por estos. Un ejemplo clásico es el armado en serie de vehículos. A lo largo de una cadena
de producción, varios robots programados para tareas específicas van ensamblando de manera continuada las distintas partes
de cada auto.
Aunque estamos acostumbrados a que los computadores tengan pantalla
y teclado, no siempre es así. Gracias a los microprocesadores es posible controlar el correcto funcionamiento de casi
todas las máquinas o aparatos fabricados por el hombre. Están presentes en los paneles de control de los aviones, las naves
espaciales y los satélites, en un reloj digital, en los autos, las lavadoras automáticas y los refrigeradores, en las máquinas
fotográficas y de video, en los robots, la tecnología médica, en los sensores de fenómenos físicos como la temperatura, clima,
erupciones volcánicas, vientos y temblores y en los sistemas automáticos que controlan la temperatura de las habitaciones,
entre otros.
Hay ordenadores que pueden reconocer la voz de alguien, otros
que permiten esquivar obstáculos hasta llegar a un objetivo,
como ocurre con los misiles inteligentes, e incluso algunos que permiten simular situaciones con gran realismo, como las experiencias
de realidad virtual o los simuladores de vuelo.
Además, enlazados por medio de redes de comunicación internas
o intranets, los computadores permiten mantener interconectadas a las distintas filiales y empleados de una empresa, al sistema
financiero, las entidades de seguridad pública o a cualquier sistema que requiera mantener información actualizada minuto
a minuto. Por ejemplo, los medios de comunicación dependen en gran medida de las agencias de noticias, sobre todo cuando se
trata de hechos sucedidos fuera del país, que por su lejanía son más difíciles o lentos de conocer.
Los comienzos de la computación
Aunque el computador personal fue creado en 1981, sus inicios se remontan a varias
décadas atrás y sus antecedentes a hace más de cuatro mil años. Esto, porque el origen de la informática no es la electrónica
sino el perfeccionamiento de los cálculos matemáticos, que con el tiempo permitió el desarrollo del sistema
binario, el lenguaje en que se programan los computadores, que está basado en la combinación de números ceros y unos (0 y
1).
2500 a.C. - El
antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para
facilitar sus operaciones de cálculo.
2000 a.C. - En el “I-Ching,
o Libro de las mutaciones”, también de origen chino, se encuentra la primera formulación del sistema binario.
600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos
de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas
negativas del átomo.
500 a.C. - Los romanos usaron
ábacos con piedrecitas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con
sus números (I, V, X, L, C, D, M).
 |
William Oughtred |
1633 - El inglés William
Oughtred creó un instrumento que hoy se conoce como regla
de cálculo, utilizado hasta hace unos años por los ingenieros.
1642 - El francés Blaise
Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. Funcionaba
gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos,
así que fue el primero en usarla.
1671 - El filósofo y matemático
alemán Gottfried Leibniz desarrolló una máquina multiplicadora.
1833 - El profesor de matemáticas
de la Universidad de Cambridge Charles Babbage (1792-1871) ideó la primera máquina procesadora de información. Algo
así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió
sin terminar su proyecto.
Babbage usaba cartones perforados para suministrarle datos a
su máquina -había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801-, que se convertirían en
instrucciones memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la información registrada, obtener
resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.
La evaluación y la retroalimentación se convertirían en la base
de la cibernética, que nacería un siglo más tarde.
 |
George Boole |
1847 - El británico George
Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó
“El análisis matemático del pensamiento” y en 1854 “Las leyes del pensamiento”.
Su álgebra era un método para resolver problemas de lógica por
medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria,
posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todos los computadores.
1890 - Los cartones perforados
y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta
máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó
(1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde
revolucionó el mercado con los computadores personales o PC.
 |
Herman Hollerith |
1889 - Solo a fines del siglo
XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división)
y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía
memoria.
1893 - Entre 1893 y 1920, Leonardo
Torres y Quevedo creó en España varias máquinas capaces de resolver operaciones algebraicas. Posteriormente construyó
la primera máquina capaz de jugar ajedrez.
En 1920 presentó en París el “aritmómetro electromecánico”,
que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones.
Una vez hecho el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora
digital.
1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo
que se acercaban bastante a lo que sería el primer computador. La Z1 tenía un teclado y algunas lámparas que indicaban valores
binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.
 |
Claude Shannon |
1937 - Claude Shannon
demostró que la programación de los futuros computadores era más un problema de lógica que de aritmética, reconociendo la
importancia del álgebra de Boole. Además, sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas,
idea que sería fundamental para la construcción del primer computador.
Más adelante, junto con Warren Weaver, Shannon desarrolló la
teoría matemática de la comunicación, hoy más conocida como la “teoría de la información”, estableciendo los
conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit
-en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.
1939 - En Estados Unidos, George
Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática
que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.
|
|
|
Blaise Pascal |
Charles Babbage |
Gottfried Wilhelm Leibniz |
Nacen los ordenadores
En 1941, Konrad
Suze presentó el Z3, el primer computador electromagnético programable mediante una cinta perforada. Tenía dos
mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts. Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba
3 segundos.
1943 - Un equipo de expertos
del ejército británico dirigido por Alan Turing construyó el Colossus, un computador que permitía descifrar
en pocos segundos y automáticamente los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la
máquina Enigma.
1944 - En 1939, Howard Aiken
(1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que
un grupo de graduados inició el diseño y la construcción del primer computador americano, del tipo electromecánico
-basado en electroimanes-.
El Mark I comenzó a funcionar en 1944. Recibía y entregaba
información en cintas perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de longitud y 2,5 metros
de alto. Posteriormente se construyeron Mark II y Mark III.
1947 - Pese a que Harvard e
IBM construyeron el primer computador, la tecnología era más avanzada en otras universidades. Los ingenieros John Presper
Eckert y John W. Mauchly, de la Universidad de Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio
de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical Integrator And Calculator).
 |
Konrad Suze |
Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba
treinta toneladas y tenía 800 kilómetros de cableado. Consumía
la misma electricidad que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de calcular con gran
velocidad las trayectorias de proyectiles, que era el objetivo inicial de su construcción.
El ENIAC es considerado el primer computador, ya que su
funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.).
Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones
debían cambiarse las conexiones, lo cual podía tomar varios días.
1949 - El matemático húngaro
John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea. La solución fue poner las instrucciones
en la misma memoria que los datos, escribiéndolas de la misma forma, en código binario.
Refiriéndose a esta innovación, se habla de la “arquitectura
de Von Neumann”. Su EDVAC fue el modelo de las computadoras de este tipo.
1951 - El primer computador
comercial fue el UNIVAC 1, fabricado por la
 |
Howard Aiken |
Sperry-Rand Corporation y comprado por la Oficina del Censo de
Estados Unidos. Disponía de mil palabras de memoria central y podía leer cintas magnéticas.
Por su parte, la IBM desarrolló la IBM 701, de la que
se entregaron dieciocho unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía con la
701. Así, lentamente, fueron apareciendo nuevos modelos.
1955 - En Bell Labs se inició
la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en
decenas de veces el tamaño de estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza
de la temperatura, ya no era necesaria.
Los transistores habían sido inventados en 1947 por los científicos
de esta misma compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño reducido capaz de realizar
funciones de bloqueo o amplificación de señal. Eran más pequeños, más baratos y mucho menos calientes que las válvulas de
vacío.
1957 - Un equipo de IBM, dirigido
por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704.
60’s - Técnicos de varios
laboratorios, a partir de la elaboración de los transistores, comenzaron a producir unidades más grandes con múltiples componentes
que cumplían diversas funciones electrónicas. Se trataba de los circuitos integrados o chips. Estos permitieron una
nueva disminución en el tamaño y el costo.
 |
John Von Neumann |
1969 - Kenneth Thompson y Dennis
Ritchie, de Bell Labs, desarrollaron el sistema operativo Unix.
1971 - La compañía Intel
lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio. Se trató de un circuito integrado especialmente
construido para efectuar las operaciones básicas de Babbage y conforme a la arquitectura de Von Neumann. Fue la primera
Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas:
• Integración simple (Integrated Circuits o IC) •
Alta integración (Large Scale Integration o LSI) • Muy alta integración (Very Large Scale Integration o VLSI)
Estos procesos permitieron acelerar el funcionamiento de los
computadores, logrando superar el millón de operaciones por segundo.
1971 - Alan Shugart, de IBM,
inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas.
1974 - Surge el Altair 8800,
el primer computador de escritorio, comercializado con el microprocesador Intel 8080. Aunque no incluía teclado, monitor,
ni software de aplicación, esta máquina dio inicio a una revolución en los sistemas computacionales modernos.
1975 - Steve Jobs -que
trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar un microcomputador
que pudiera ser usado más masivamente. Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales
y desarrolló el lenguaje de programación Basic. El resultado fue el primer computador Apple.
A fines de 1976 tenían el modelo listo para ser comercializado:
el Apple II. Tras varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien formaron su propia
compañía, la Apple Computers. El Apple II siguió fabricándose por otros quince años, todo un récor para una industria que
continuamente presenta novedades.
Aunque no lo creas, hasta un discman contiene una especie de
minicomputador que controla su funcionamiento.
Computador para todos
Tras el éxito del microcomputador,
en 1981 IBM lanzó al mercado el IBM PC, diseñado por doce ingenieros dirigidos por William C. Lowe. Su principal característica
es que tenía una estructura abierta; es decir, que era capaz de integrar componentes de otros fabricantes. De hecho, su sistema
operativo, el DOS 1.0, era de Microsoft, y el microprocesador, un Intel 8088. En cinco años se vendieron más de tres millones
de unidades.
Aunque el término computador personal (PC) se popularizó
con esta invención de IBM, los primeros aparatos de este tipo habían sido comercializados desde 1977 por la Tandy Corporation,
que le incorporó teclado y monitor, ya que el primer modelo de computadores de escritorio, el Altair 8800 de 1974, no los
tenía. En 1980, antes del lanzamiento de IBM, las revolucionarias empresas del Silicon Valley o Valle del Silicio -recibió
ese nombre porque en él se establecieron solo empresas tecnológicas- como Apple, Tandy, Osborne y Commodore, ya habían vendido
327 mil unidades.
En 1984, la compañía Apple presentó un nuevo computador,
el Macintosh, sucesor de un modelo denominado Lisa. Entre sus novedades estaba la incorporación de una herramienta
nueva para controlar el computador, el mouse o ratón. El modelo no tuvo gran aceptación, debido a su alto costo.
En 1985, Microsoft -compañía fundada por Bill Gates y
Paul Allen en 1975- presentó el software Windows 1.1. Ese mismo año aparecen los primeros CD-ROM para computadores.
Los computadores personales surgieron gracias a la Muy Alta Integración
de sus procesos (VLSI) desarrollada durante los ochentas,
y que permitió concentrar miles de componentes electrónicos en una plaquita de silicio (el chip) de alrededor de un centímetro
cuadrado. Esto ha permitido reducir los tamaños de estas máquinas hasta hacerlas portátiles y ampliar su velocidad por sobre
el billón de operaciones por segundo, como es el caso de los supercomputadores.
Durante los noventa comenzó a masificarse el uso de los computadores,
al disminuir su tamaño y también su costo, debido a la producción en serie y a la competencia entre las fabricantes IBM, Apple
y Microsoft. Primero se multiplicaron en las empresas y luego fueron apareciendo cada vez en más hogares.
Los pasos de la computación
Para entender mejor el proceso que marcó el despegue de la informática, repasemos revisando
las distintas generaciones de computadores. Aunque sus inicios, términos y los hitos que las determinan difieren entre los
distintos autores, estas tienen que ver básicamente con el desarrollo científico relacionado a la forma en la que eran construidos
y la manera en la que el hombre ingresaba la información que debían procesar y analizar.
• Primera Generación:
eran las primeras máquinas electrónicas, enormes y sumamente caras. Estaban formadas por válvulas o tubos al vacío muy similares
a las ampolletas. La unidad de entrada utilizaba tarjetas perforadas.
La computadora más exitosa de esta generación fue la IBM 650,
de la cual se produjeron varios centenares.
• Segunda Generación:
comienza en 1958, cuando se sustituyeron los tubos de vacío por transistores y se empiezan a usar las memorias
de núcleos magnéticos o ferritas. Eran más pequeños que los de primera generación, aunque con una mayor capacidad de procesamiento.
Se programaban en nuevos lenguajes, llamados de alto nivel, con
cintas perforadas o cableado proveniente de un tablero. La programación era a la medida de cada computador.
Un ejemplo de esta generación de computadores
es el Standard Electric SE-Lorentz, que fue el primer computador traído a nuestro país por la Universidad de Chile en 1962.
Ese mismo año, la Universidad Católica trajo el IBM 1620.
• Tercera Generación:
a partir de 1965 se incorporan los circuitos integrados o chips, que son microcircuitos capaces de realizar las mismas funciones
que cientos de transistores. Eran computadores de tamaño mediano y más baratos. Se manejaban mediante los lenguajes de control
de los sistemas operativos.
En 1966, la Universidad de Chile es la primera en traer un computador
de tercera generación, el IBM serie 360 modelo 40.
• Cuarta Generación:
en los setentas aparecieron los microprocesadores, circuitos integrados de alta densidad con una gran velocidad.
Los microcomputadores eran muchísimo más pequeños y baratos,
por lo que su uso se extendió al sector industrial. Es la época del nacimiento de los computadores personales o PC.
• Quinta Generación:
tiene que ver con el desarrollo de los softwares -programas instalables que le indican al computador cómo hacer una serie
de funciones- y el perfeccionamiento de los sistemas operativos -que supervisan y controlan las operaciones y los dispositivos
físicos de las computadoras-, que se inició a mediados de los ochentas. El objetivo era lograr que el usuario se relacionara
con estas máquinas en un lenguaje más cotidiano y no a través de códigos o lenguajes de control demasiado especializados.
Más fácil y más barato debido a la producción en serie.
¿Cómo funcionan hoy?
Los computadores actuales no tienen en su interior mecanismos o ruedas con dientes, sino un laberinto de
microscópicos transistores que reaccionan ante los impulsos eléctricos que pasan por sus circuitos y que tienen solo dos posiciones,
que corresponden a las cifras empleadas por el sistema binario, ceros y unos.
Si bien las instrucciones en las primeras máquinas debían ser
ingresadas en ceros y unos, los computadores actuales son capaces de transformar las palabras, números e instrucciones que
ingresamos a bits -dígitos binarios-. Así, cada computador debe traducir uno o más lenguajes en código binario para poder
funcionar.
Los programas o softwares son el conjunto de instrucciones
que le dicen al computador qué debe hacer. Sin ellos, el computador es una máquina inútil. Hay diferentes clases de programas.
Las dos principales categorías son los sistemas operativos y el software aplicativo o aplicaciones.
El sistema operativo es el programa más importante, porque controla el funcionamiento del computador
y el de los demás programas.
Las aplicaciones son todos los programas
que permiten al usuario realizar tareas: procesadores de palabras para escribir, juegos para divertirse, hojas de cálculo
para trabajo financiero, browsers para navegar por la red.
El sistema operativo establece las reglas y parámetros para que
el software aplicativo interactúe con el computador, ya que en lugar de hablar directamente con el hardware (elementos físicos
que componen el computador), las aplicaciones hablan con el sistema operativo y este actúa como su intérprete. Si no existiera
el sistema operativo, cada empresa desarrolladora de softwares tendría que crear su propio método para que las aplicaciones
graben archivos en el disco duro, desplegar textos y gráficos en la pantalla, enviar texto a la impresora e infinidad de funciones
más.
Los sistemas operativos se diseñan para que funcionen sobre una
familia particular de computadores. Por ejemplo, los sistemas operativos MS DOS y Windows trabajan en PC basados en procesadores
de Intel o Athlon. El sistema operativo Macintosh corre solo en PC Macintosh, los cuales usan procesadores Power PC (anteriormente
usaban Motorola 680x0). Estos sistemas no son compatibles entre sí.
Las aplicaciones deben corresponder al sistema operativo instalado
para poder funcionar.
Los sistemas operativos y las aplicaciones son los principales programas, pero no son los únicos. Existe otra categoría importante,
el lenguaje de programación, que es el software que se usa para escribir los programas en el lenguaje de la máquina,
el único que el procesador del computador entiende, el código binario.
Los PC tienen cuatro elementos básicos: el teclado, para
introducir la información; la memoria, que almacena la información y el programa; la unidad de proceso (CPU),
que lleva a cabo las instrucciones contenidas en el programa; y una pantalla para ver los resultados del trabajo realizado.
Los programas se instalan mediante compac disc o cd, y en el
caso de los computadores menos modernos, por medio de disquetes. Los datos pueden introducirse de la misma manera o bien a
través del teclado o algún otra vía, como son los archivos que llegan a través del correo electrónico o la información que
se pueda obtener desde Internet.
Los resultados de estos procesos de ejecución y análisis de los
datos se pueden observar en la pantalla -en forma de palabras, números e imágenes-, impresos en papel o como sonidos emitidos
por un altavoz, y pueden almacenarse en el disco duro, disquetes o cd’s.
Las partes de un computador
Los computadores están integrados por una serie de componentes electrónicos que son los responsables de
su correcto funcionamiento. Entre ellos destacan:
• Unidad central
de procesos (CPU): es el cerebro del PC. Se encarga de procesar las instrucciones y los datos con los que
trabaja el computador. El procesador es el dispositivo más importante y el que más influye en su velocidad al analizar información.
• Memoria RAM
o memoria principal: es la memoria de acceso aleatorio, en la que se guardan instrucciones y datos de los
programas para que la CPU puede acceder a ellos directamente a través del bus de datos externo de alta velocidad.
A la RAM se le conoce como memoria de lectura/escritura, para
diferenciarla de la ROM. Es decir que en la RAM, la CPU puede
escribir y leer. Por esto, la mayoría de los programas destinan parte de la RAM como espacio temporal para guardar datos,
lo que permite reescribir. Como no retiene su contenido, al apagar el computador es importante guardar la información.
La cantidad de memoria RAM influye bastante en la velocidad de
un PC. Entre más memoria RAM tenga, más rápido trabaja y más programas puede tener abiertos al mismo tiempo.
• Memoria ROM:
es la memoria solo para lectura. Es la parte del almacenamiento principal del computador que no pierde su contenido cuando
se interrumpe la energía. Contiene programas esenciales del sistema que ni la computadora ni el usuario pueden borrar, como
los que le permiten iniciar el funcionamiento cada vez que se enciende el computador.
 |
En el disco duro quedan guardados, entre otras
cosas, todos los archivos creados por el usuario. |
• Disco duro: es
el dispositivo de almacenamiento secundario que usa varios discos rígidos cubiertos de un material magnéticamente sensible.
Está alojado, junto con las cabezas de lectura, en un mecanismo sellado en forma hermética, en el que se guardan los programas
y todos los archivos creados por el usuario cuando trabaja con esos programas. Entre más capacidad tenga un disco duro, más
información y programas puede almacenar en el PC.
La capacidad del disco duro se mide en gigabytes (GB). Un GB
equivale a 1.024 megabytes (MB) aproximadamente.
• Caché: es
una unidad pequeña de memoria ultrarrápida en la que se almacena información a la que se ha accedido recientemente o a la
que se accede con frecuencia, lo que evita que el microprocesador tenga que recuperar esta información de circuitos de memoria
más lentos.
El caché suele estar ubicado en la tarjeta madre, pero a veces
está integrado en el módulo del procesador. Su capacidad de almacenamiento de datos se mide en kilobytes (KB). Mientras más
caché tenga el computador es mejor, porque tendrá más instrucciones y datos disponibles en una memoria más veloz.
• Tarjeta madre:
es la tarjeta de circuitos que contiene el procesador o CPU, la memoria RAM, los chips de apoyo al microprocesador y las ranuras
de expansión. Estas son las que permiten insertar, por ejemplo, la tarjeta de sonido (que permite al PC reproducir sonido),
el módem interno (que hace posible navegar por Internet) o la tarjeta gráfica o de video (que permite mostrar imágenes en
la pantalla).
 |
El
CD ROM lee la información contenida en los discos compactos. |
• CD-ROM: esta
unidad sirve para leer los discos compactos, sean estos programas, música o material multimedia (sonidos, imágenes, textos),
como las enciclopedias y los juegos electrónicos. La velocidad de esta unidad depende de dos factores: la tasa de transferencia
de datos y el tiempo de acceso.
La tasa de transferencia de datos se refiere a la cantidad de
datos que la unidad de CD ROM puede enviar al PC en un segundo. Esa tasa se mide en kilobytes por segundo (kbps) y se indica
con un número al lado de un X, por ejemplo: 16X, 24X o 48X. Mientras más X, mayor velocidad.
El tiempo de acceso se refiere a lo que tarda el proceso completo.
• Unidad de
disquete: esta unidad lee y escribe en los disquetes. Estos discos sirven para
guardar y leer información, pero a diferencia del disco duro, que está fijo dentro del PC, se pueden introducir y sacar de
la unidad, por lo que permiten transportar datos de un lado a otro. Los disquetes tienen una capacidad de almacenamiento de
datos muy baja: 1.4 megabytes (MB).
Unidades de medición |
Bit: es
la abreviación de dígito binario (0 ó 1), la parte más pequeña de información que puede haber en una computadora. Se trata
de dos posiciones: el uno implica que está encendido y el 0 que está apagado. Byte:
es la unidad de información fundamental de los computadores y corresponden a ocho bits continuos. Representa un caracter de
datos o instrucción. Kilobyte (Kb): corresponde a alrededor de mil bytes (1024 bytes). Megabyte (Mb): indica mil kilobytes, es decir alrededor de un millón
de bytes. Gigabyte (Gb): señala mil megabytes o unos mil millones de bytes. Terabyte (Tb): equivale a mil gigas o a algo
más de un billón de bytes.
Para poder sacar cálculos precisos casi todas estas cifras se
redondean. |
PARA INVESTIGAR |
Cuando apagas un computador ¿por qué no pierde la información? | |
Superordenadores |
Estos computadores son los más desarrollados y están destinados
a efectuar cálculos complicados a gran velocidad, por lo que son utilizados en las áreas científicas y de la ingeniería. Son
tan grandes o incluso de mayor tamaño que los primeros computadores, pero su capacidad es claramente superior: realizan billones
de operaciones por segundo.
Son utilizados para proyectar autos, aviones y complejas armas,
controlar el funcionamiento de naves espaciales, satélites y centrales nucleares y para realizar complejas predicciones meteorológicas
o astronómicas, entre otras cosas.
Una de los supercomputadores más famosas es Deep Blue,
de IBM, que en 1997 derrotó al campeón mundial de ajedrez Gary Kasparov.
|
PARA INVESTIGAR |
¿Los computadores conversan entre ellos? | |
|