HISTORIA DE LA COMPUTACIÓN Y SUS GENERACIONES
Las computadoras construidas con válvulas de vacío son la primera generación de lo que en la actualidad se conoce como computadoras.
Las primeras computadoras de válvulas de vacío se distinguían por dos aspectos fundamentales:
Ambos efectos eran debidos al gran tamaño de las válvulas con las que estaban construidos y a que éstas necesitaban consumir una gran cantidad de energía para alimentarse, generando una enorme cantidad de calor.
Las válvulas de vacío surgieron a principios del siglo XX, cuando en 1907 Lee De Forest inventó la primera válvula electrónica (triodo) al intentar perfeccionar los receptores telegráficos existentes en la época. La posibilidad de la válvula electrónica de asumir dos estados posibles fue la base fundamental sobre la que se implantó el código binario (0,1) y las modernas computadoras digitales.
En 1941 comenzó a realizarse el diseño y construcción de ENIAC bajo la dirección de J. Eckert y J.W. Mauchly, quienes pertenecían a la Escuela de Ingeniería Eléctrica de Moore en Pennsylvania; ENIAC fue la primera computadora de válvulas electrónicas construida, entró en funcionamiento en 1945 y fue dada de baja en 1955. En ese momento aún permanecía operativa.
Hasta hace poco tiempo ha existido una polémica entre Mauchly y J. Atanasoff debido a que el primero visitó a este cuando Atanasoff estaba trabajando en un prototipo de computadora en su laboratorio de la Universidad de Iowa. Atanasoff manifestó que Mauchly se basó en su computadora para construir posteriormente la ENIAC. En el verano de 1995 parece que, finalmente, se ha confirmado este hecho y el mérito del diseño de la primera computadora moderna corresponde a Atanasoff.
La arquitectura física de ENIAC se componía de 18.000 válvulas, un volumen de alrededor de 111 metros cúbicos (aproximadamente el tamaño de un autobús), unas 30 toneladas de peso y un consumo de 150.000 watios.
El tamaño de la máquina era una exigencia de la tecnología de construcción ya que las válvulas generaban mucho calor y debían separarse lo más posible para poder disipar convenientemente ese calor.
ENIAC no sería exactamente, en su diseño lógico, lo que se entiende ahora por computadora, puesto que no poseía la capacidad de almacenamiento de programas; en efecto, el programa debía ser previamente perforado en tarjetas y posteriormente cargado en la memoria, finalizando con la ejecución del programa y el proceso de los datos a utilizar.
El principal problema que presentaba ENIAC era que el proceso no estaba optimizado en absoluto, la computadora sólo podía efectuar estas tareas secuencialmente. Así, si estaba leyendo las tarjetas perforadas no podía procesar los datos ni escribir la salida por la impresora, con lo cual el tiempo de ejecución se incrementaba considerablemente.
Como el tiempo de reacción de las primeras válvulas era muy alto, comparado con la velocidad de los componentes actuales, puede pensarse que no existía una gran diferencia entre las primeras computadoras electrónicas y las mecánicas. Sin embargo, cuando la computadora estaba plenamente operativa, se mejoraba mucho la rapidez y eficacia con respecto a sus antecesoras.El mantenimiento, no obstante, era muy arduo, ya que se debían controlar todas las válvulas para evitar que una parte de la computadora quedara inutilizada, las mejores prestaciones que se consiguieron fueron alrededor de dos o tres días sin que se fundiera ninguna válvula. El que se fundiera una válvula significaba que debía pararse la máquina, localizar la avería, resolverla y, posteriormente, realizar el arranque. El arranque implicaba un calentamiento previo de los filamentos de las válvulas, hay que recordar que las antiguas radios y televisiones que funcionaban con esa tecnología tardaban unos momentos en «calentarse« antes de ponerse en marcha.
LA SEGUNDA GENERACIÓN DE COMPUTADORAS (1959-1964)
La segunda generación se basa en el funcionamiento del transistor, lo que hizo posible una nueva generación de computadoras más pequeñas, más rápidas y con menores necesidades de ventilación, por todos estos motivos la densidad del circuito podía ser aumentada significativamente, lo que quería decir que los componentes podían colocarse mucho más cerca unos de otros y así ahorrar mas espacio.
Diversas compañías como IBM, UNIVAC, HONEYWELL, construyen ordenadores de este tipo. Las principales características son:
El componente principal es un pequeño trozo de semiconductor: el transistor.
Disminución del tamaño.
Disminución del consumo y la producción de calor.
Aumento de la factibilidad.
Mayor rapidez.
Memoria interna de núcleo de ferrita y tambor magnético.
Instrumento de almacenamiento: accesorio para almacenar en el exterior información (Cintas y discos).
Mejoran los dispositivos de entradas y salidas, para la mejor lectura de las tarjetas perforadas, se disponía de células fotoeléctricas.
Introducción de elementos modulares.
Las impresoras aumentan su capacidad de trabajo.
Lenguajes de programación más potentes, ensambladores y de alto nivel (Fortran, Cobol y Algol).
Se usaban para nuevas aplicaciones, como en los sistemas de reservación de líneas aéreas y simulaciones para uso general. Las empresas comenzaron a usarlas en tareas de almacenamiento de registros, nóminas y contabilidad.
LA TERCERA GENERACIÓN DE LAS COMPUTADORAS (1964-1971)

Los Circuitos Integrados
El paso de la segunda a la tercera generación de computadoras se produjo a principios de la década de los sesenta y se debió a la aparición de los circuitos integrados.
Si bien la primera patente comercial de un circuito integrado se concedió en 1959 al ingeniero de la empresa estadounidense Texas Instruments, Jack Kilby, hasta el año 1962 no se presentó comercialmente el primer circuito integrado; éste era de tecnología digital y su estructura era la de un transistor (en realidad estaba compuesto por dos transistores), pero en una superficie de 1 mm2.
Los circuitos integrados tienen un tamaño similar al de un transistor, pero el grado de miniaturización de sus componentes es muchísimo mayor, pudiéndose incluir la potencia de varios transistores en un solo circuito de menor tamaño que el de un transistor. Con los circuitos integrados no sólo se aumentó la miniaturización de los componentes, sino también su fiabilidad y velocidad de proceso, de modo que el tiempo de conmutación pasó a medirse en nanosegundos, esto es, milmillonésimas de segundo.
En esta tercera generación de computadoras se introdujo el concepto de multitarea.
La multitarea es una optimización de la utilización de los componentes del sistema informático. En la multitarea se gestionan de tal forma los recursos del sistema de la computadora que el sistema operativo maneja el entorno hardware de tal forma que, si bien es sólo un programa el que ocupa el procesador central en un momento dado, cuando ese programa principal necesita utilizar un subsistema más lento que el procesador central, el sistema operativo da paso a otro programa para que pueda utilizar los recursos del procesador central mientras el primer programa está utilizando el resto de los subsistemas.
La optimización del entorno hardware permite una multiplicación de la capacidad operativa del procesador.
Tipos de Integración de los Circuitos
A partir de mediados de los años sesenta van sucediéndose los diferentes niveles en la integración de circuitos. En 1964 aparecen los circuitos de Pequeña Escala de Integración (SSI, Small Scale Integration en inglés) que tienen entre 1 y 12 puertas lógicas.
En 1968 surgen los procesadores de Media Escala de Integración (MSI, Middle Scale Integratio en inglés) que se componen de entre 13 y 99 puertas lógicas.
En 1971 se llega a lo que se conoce realmente como microprocesador con la tecnología de Gran Escala de Integración (LSI, Large Scale Integration en inglés), donde ya se superan las 100 puertas lógicas instaladas en el circuito y se llega al umbral de las 1.000.
Finalmente, la cuarta escala de integración surge en 1980, es la tecnología VLSI, (Very Large Scale Integration o de Muy Gran Escala de Integración). Es la tecnología que se está utilizando en la construcción de componentes en estos momentos. Con esta tecnología se están superando en la actualidad las 1.000 puertas lógicas y se están llegando a instalar más de 10.000 puertas lógicas.
La tendencia actual de los fabricantes es seguir aumentando la escala de integración de los circuitos para conseguir mejorar los rendimientos de los sistemas informáticos (en la actualidad se están consiguiendo tiempos de conmutación del orden de un nanosegundo).
Otro factor favorable a la utilización de la tecnología VLSI en la construcción de los circuitos integrados es que estos circuitos, al tener menos componentes, son más fiables y, por lo tanto existe mucho menos riesgo de avería; además, debido a su costo, los componentes se diseñan a medida y deben pasar por unos controles de calidad mucho más estrictos.
Han surgido, sin embargo, problemas subyacentes a la integración de componentes, como puede ser la generación de un excesivo calor (lo que puede afectar muy negativamente a los del circuito) o la imposibilidad de traspasar barreras físicas (como componentes de tamaño tan sumamente pequeño que su manejo se hace muy difícil y hace cada vez más complicados los avances en estas tecnologías).
La cuestión del tamaño es acuciante. Como puede verse en esta breve reseña histórica, desde los años sesenta la industria electrónica se ha visto impulsada a reducir, cada vez más, los componentes de los microcircuitos semiconductores para fabricar memorias mayores y procesadores más rápidos y potentes. En este sentido, de proseguir la tendencia hacia la miniaturización, el tamaño de una puerta lógica será, antes de cuarenta años, el de una molécula. Esto llevaría a desarrollar una nueva «especie», ya no generación, de computadoras: las de base orgánica.
A estos obstáculos técnicos hay que añadir el quizás más determinante, industrialmente hablando, obstáculo económico. Cada vez que se duplica la miniaturización, el coste de fabricación del microcircuito se multiplica por cinco. De este modo, se puede dar el caso de que la búsqueda de circuitos electrónicos cada vez menores se vea limitada más por consideraciones económicas que físicas.
NOMBRE FECHA NÚMERO DE PUERTAS LÓGICASSSI 1964 DESDE 1 HASTA 12 PUERTASMSI 1968 DESDE 13 HASTA 99 PUERTASLSI 1971 DESDE 100 HASTA 1000 PUERTASVLSI 1980 DESDE 1.000 HASTA MAS DE 10.000 PUERTAS
LA CUARTA GENERACIÓN DE LAS COMPUTADORAS (1972 a 1984)
El Microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La microminiaturización permite construir el microprocesador, circuito integrado que rige las funciones fundamentales del ordenador.
Las aplicaciones del microprocesador se han proyectado más allá de la computadora y se encuentra en multitud de aparatos, sean instrumentos médicos, automóviles, juguetes, electrodomésticos, etc.
Memorias Electrónicas: Se desechan las memorias internas de los núcleos magnéticos de ferrita y se introducen memorias electrónicas, que resultan más rápidas. Al principio presentan el inconveniente de su mayor costo, pero este disminuye con la fabricación en serie.
Sistema de tratamiento de base de datos: el aumento cuantitativo de las base de datos lleva a crear formas de gestión que faciliten las tareas de consulta y edición. Lo sistemas de tratamiento de base de datos consisten en un conjunto de elementos de hardware y software interrelacionados que permite un uso sencillo y rápido de la información. Las principales características son:
Aparición del microprocesador.
Memoria electrónica.
Sistema de tratamiento de base de datos.
Se fabrican computadoras personales y microcomputadoras.
Se utiliza el disquete (Floppy Disk) como unidad de almacenamiento.
Aparecieron gran cantidad de lenguajes de programación y las redes de transmisión de datos (Teleinformática).
LA QUINTA GENERACIÓN DE LAS COMPUTADORAS (1984-1989)
La inteligenca artificial
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.
LA SEXTA GENERACIÓN DE LAS COMPUTADORAS(1990 - )
indefinida todavía
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
1 comentarios:
su nota es 18
Publicar un comentario