-
Uno de los primeros sistemas numéricos organizados. Introduce la posición de los dígitos y la base 60, usada aún hoy en el tiempo y los ángulos. -
Sistema decimal no posicional; primer intento de representar números mediante símbolos. -
El ábaco es una herramienta antigua de cálculo, utilizada para operaciones aritméticas, que aún se usa en la enseñanza de matemáticas. -
Documento que contiene algoritmos y reglas matemáticas escritas: primer registro de “pseudocódigo” matemático. -
El sistema decimal hindú y el concepto de cero constituyen un método numérico que utiliza diez símbolos y la posición del cero, permitiendo la aritmética moderna y sentando las bases de la computación binaria. -
Es un sistema matemático basado en puntos, líneas y figuras, organizado a partir de axiomas y postulados que permiten deducir teoremas sobre el espacio y las formas. -
Se define el término “algoritmo”. Base de la teoría de los algoritmos y de la aritmética algebraica. -
Difunde el sistema decimal y el uso del cero en Europa. Establece métodos sistemáticos para el cálculo y la contabilidad. -
Los logaritmos, creados por John Napier, simplifican cálculos al convertir multiplicaciones en sumas. Son útiles en ciencia, ingeniería y escalas como la de Richter o los decibelios. -
La regla deslizante, inventada por William Oughtred, usaba escalas logarítmicas para cálculos manuales. Fue clave en ciencia e ingeniería hasta ser reemplazada por calculadoras en los años 70. -
Considerada la primera máquina capaz de sumar y restar automáticamente, anterior a la pascalina. -
La Pascalina, creada por Blaise Pascal, fue la primera calculadora mecánica. Usaba ruedas para sumar y restar, y fue precursora de las calculadoras modernas. -
Introduce el principio de la multiplicación automática; mejora el diseño de Pascal. -
Ada Lovelace fue una matemática británica considerada la primera programadora por crear el primer algoritmo para la máquina analítica de Babbage.
-
La Máquina Diferencial, diseñada por Charles Babbage, fue una calculadora mecánica que buscaba automatizar tablas matemáticas. Aunque no se completó, marcó el inicio de la computación al mostrar que el cálculo podía automatizarse. -
Primer sistema de comunicación digital (binario: punto y raya). Inspiración directa para la transmisión de datos. -
El álgebra de Boole, desarrollada por George Boole en The Laws of Thought, es una estructura matemática que representa operaciones lógicas, fundamental en la electrónica digital y la informática. -
Las tarjetas perforadas, o tarjetas Hollerith, fueron el primer sistema mecánico de almacenamiento y entrada de datos, usando perforaciones en cartulinas para registrar y procesar información automáticamente. -
Usada en el censo de EE. UU.; funcionaba con tarjetas perforadas. Da origen a IBM. -
John von Neumann aportó a la teoría de juegos, informática, mecánica cuántica y la bomba atómica. Creó la arquitectura informática moderna y participó en el Proyecto Manhattan.
-
Matemático británico que aportó al desarrollo de la lógica matemática aplicada a la computación, base de los circuitos lógicos y del funcionamiento de los sistemas digitales modernos.
-
Precursor de las computadoras analógicas utilizadas antes de los digitales. -
La Máquina de Turing es un modelo teórico de computación que utiliza una cinta infinita, una cabeza lectora/escritora y un conjunto de reglas para resolver problemas mediante símbolos. Es clave en la teoría de la computación. -
En teoría de la computación, un problema es un conjunto de frases finitas con frases resultantes también finitas. Un problema de decisión tiene respuestas «sí» o «no» y se formaliza como decidir si una frase pertenece a un conjunto dado, llamado lenguaje formal, que contiene solo las frases con respuesta positiva.
-
La teoría de algoritmos estudia y diseña instrucciones finitas para resolver problemas, evaluando su eficiencia, corrección y límites mediante modelos como la máquina de Turing. -
Un problema indecible no puede resolverse con ningún algoritmo, ya que no existe un procedimiento que responda todos los casos. Un ejemplo clásico es el problema de la parada, que no puede predecir si un programa se detendrá.
-
La computación ha facilitado la automatización, mejorado la productividad en industrias clave y generado empleo en tecnología, salud y educación. También ha democratizado el acceso a la información, impulsando la innovación y reduciendo barreras globales.
-
Primer ordenador programable y completamente automático. Funcionaba con relés electromecánicos. -
Concepto de almacenar programas en memoria, base de las computadoras modernas. -
El ENIAC fue uno de los primeros ordenadores de propósito general y Turing-completo, sentando las bases de las computadoras modernas y mostrando el potencial de automatizar procesos complejos. -
El transistor sustituyó las válvulas de vacío y permitió la microelectrónica moderna. Funciona como interruptor o amplificador y es esencial en todos los dispositivos electrónicos actuales. -
Define los conceptos de bit, entropía de la información y canal de comunicación. Fundamenta las telecomunicaciones y la compresión de datos. -
Traduce código de alto nivel a lenguaje máquina; base del software moderno. -
La inteligencia artificial (IA) permite que las computadoras realicen funciones avanzadas como ver, entender y traducir lenguaje, analizar datos y hacer recomendaciones. -
Los lenguajes de programación son reglas que permiten a los desarrolladores escribir instrucciones para que la computadora ejecute algoritmos y procesos, facilitando la creación de software y aplicaciones.
-
Un circuito integrado, o chip, es un pequeño dispositivo que agrupa muchos componentes electrónicos en una sola pieza de silicio, haciendo los aparatos más pequeños, eficientes y económicos. -
En robótica, los sensores permiten a los robots percibir su entorno y estado interno, convirtiendo datos físicos en señales electrónicas. Son clave para su autonomía, precisión y adaptación al entorno. -
Muestra la posibilidad del entretenimiento digital y de la computación gráfica temprana. -
La computación gráfica es la rama informática que crea y manipula imágenes con algoritmos. Es clave en videojuegos, cine, medicina e ingeniería. -
Los simuladores son programas que imitan sistemas reales para aprender y probar sin riesgos. Surgieron con computadoras digitales y el lenguaje Simula, y se usan en aviación, medicina, ingeniería y educación. -
Predice la duplicación periódica del número de transistores en un chip. Marca el ritmo del desarrollo tecnológico durante décadas. -
ARPANET fue la primera red de computadoras que permitió la comunicación entre distintas máquinas, precursor directo del internet actual -
Red militar estadounidense que se convierte en el origen de Internet. -
El microprocesador Intel 4004 inició la Revolución Digital, haciendo las computadoras más pequeñas, rápidas y accesibles, y transformando la producción y procesamiento de información. -
Marca el comienzo de la computación móvil y la convergencia entre informática y telecomunicaciones. -
Democratizan la computación personal y desarrollan sistemas operativos para usuarios domésticos. -
IBM lanza el IBM Personal Computer, que define la arquitectura de los PC modernos. Marca el inicio de la informática doméstica y de oficina, y la expansión masiva del uso de computadoras. -
Se establece como estándar en ARPANET, convirtiéndose en la base del Internet moderno. -
La computación ofrece beneficios como acceso global a la información, mejora educativa, innovación y productividad, pero también causa desempleo tecnológico, brecha digital, dependencia y riesgos a la privacidad.
-
Nace el sistema operativo de código abierto, base de servidores, supercomputadoras y Android. Impulsa el software libre. -
La creación de la World Wide Web por Tim Berners-Lee abrió internet al público, iniciando la Era de la Información con acceso global y rápido al conocimiento y la comunicación digital. -
Hace Internet accesible al público general con interfaz gráfica; precursor de Netscape y Chrome. -
Peter Shor demostró que un computador cuántico podía factorizar números grandes mucho más rápido que uno clásico, impulsando la computación cuántica. -
Revoluciona la búsqueda de información y la gestión de datos en la red. -
La computación en la nube es un modelo que ofrece recursos de TI bajo demanda por Internet, sin necesidad de contar con infraestructura propia. -
Ejemplo temprano de colaboración digital y del concepto Web 2.0. -
Da inicio a la era de la interacción digital global y el big data social. -
Internet se vuelve colaborativo: redes sociales, blogs y plataformas interactivas. Se potencia el intercambio masivo de información. -
Democratizan el acceso a la computación móvil. -
Introduce el concepto de registro descentralizado y criptografía avanzada aplicada a la economía digital. -
Marca el renacimiento del aprendizaje profundo (deep learning), revolucionando la visión artificial. -
Popularizan la interacción por voz y la IA conversacional. -
Avances hacia procesadores inspirados en el cerebro y ordenadores cuánticos accesibles vía nube. -
Capacidad de crear contenido, programar y razonar. Fusión de IA con creatividad y computación cuántica. -
La computación se vuelve universal e inteligente, integrando IA, nube y cuántica en casi todas las áreas tecnológicas.