-
-
Los primeros sistemas informáticos usaban tubos de vacío para los circuitos y tambores magnéticos para la memoria, estos equipos a menudo eran enormes, ocupando salas enteras. Además eran muy costosos de operar además de utilizar una gran cantidad de electricidad, los primeros ordenadores generaban mucho calor, que a menudo era la causa de un mal funcionamiento.
-
-
El transistor fue inventado en Bell Labs en 1947, pero no se vio un uso generalizado hasta finales de la década de 1950. El transistor era mejor que el tubo de vacío, lo que permitía que se volvieran más pequeños, más rápidos, más baratos, más eficientes energéticamente y más confiables. Aunque el transistor aún generaba una gran cantidad de calor. Los ordenadores de segunda generación aún dependían de tarjetas perforadas para la entrada y copias impresas para la salida.
-
-
Los transistores fueron miniaturizados y colocados en chips de silicio, llamados semiconductores, que aumentaron drásticamente la velocidad y la eficiencia. En vez de tarjetas perforadas e impresiones, los usuarios interactuaron a través de teclados y monitores, e interactuaron con un SO, lo que permitió que el dispositivo ejecutara muchas aplicaciones diferentes a la vez. Se hicieron accesibles para una audiencia masiva, porque eran más pequeños y más baratos que sus predecesoras.
-
-
El microprocesador trajo la cuarta generación de ordenadores, ya que miles de circuitos integrados se construyeron en un solo chip de silicio. Lo que en la primera generación llenaba una habitación entera, ahora cabía en la palma de la mano. El chip Intel 4004, desarrollado en 1971, ubicó todos los componentes, desde la unidad de procesamiento central y la memoria hasta los controles de entrada / salida, en un solo chip.
-
-
Los dispositivos informáticos de quinta generación, basados en inteligencia artificial, aún están en desarrollo. El uso de procesamiento paralelo y superconductores está ayudando a hacer realidad la IA. La computación cuántica y la nanotecnología molecular cambiarán radicalmente la cara de las computadoras en los próximos años. El objetivo de esta es desarrollar dispositivos que respondan al aporte del lenguaje natural y que sean capaces de aprender y autoorganizarse.