Red de Respuestas Legales - Conocimientos de patentes - ¿Quién inventó la computadora? La primera computadora (ENIAC) nació en Estados Unidos en febrero de 1946. El matemático estadounidense von Neumann propuso el almacenamiento de programas. El desarrollo de ENIAC comenzó en 1943 y se completó en 1946 con el apoyo del Departamento de Guerra de los Estados Unidos. En primer lugar, el nacimiento de las computadoras mecánicas en Europa occidental, desde la Edad Media hasta el Renacimiento, impulsó en gran medida el desarrollo de las ciencias naturales y la tecnología, y la creatividad de las personas, que durante mucho tiempo había sido reprimida por la teocracia, se liberó sin precedentes. Entre estas chispas de pensamiento y creatividad, construir una máquina que pueda ayudar a las personas a calcular es la más deslumbrante y llamativa. Desde entonces, un científico tras otro ha hecho incansables esfuerzos para hacer realidad este gran sueño. Sin embargo, debido al nivel tecnológico de la época, la mayoría de las creaciones experimentales terminaron en fracaso, lo que también demuestra que los pioneros corrieron la misma suerte: muchas veces fracasaron sin ver los resultados de sus esfuerzos. Cuando las generaciones futuras disfrutan de estos dulces frutos, a menudo pueden saborear el sudor y las lágrimas... 1614: el escocés John Knepper (1550 ~ 1617) publicó un artículo en el que menciona que inventó un ingenioso dispositivo que puede realizar cuatro operaciones aritméticas y cuadrar. operaciones raíz. 1623: Wilhelm Schickard (1592 ~ 1635) creó un "reloj calculador" que podía realizar operaciones de suma y resta de hasta 6 dígitos y generar la respuesta tocando la campana. Este dispositivo se opera girando un engranaje. William Outred (1575 ~ 1660) inventó la regla de cálculo. 1668: El inglés Samuel More (1625 ~ 1695) fabricó un dispositivo de suma no decimal adecuado para contar monedas. 1671: el matemático alemán Gottfried Leibniz diseña una herramienta de cálculo que puede realizar operaciones de multiplicación con una respuesta final de hasta 16 dígitos. 1822: el inglés Charles Babbage (1792 ~ 1871) diseña un motor diferencial y un analizador. La teoría del diseño era muy avanzada, similar a las computadoras electrónicas cien años después, especialmente el diseño del uso de tarjetas para ingresar programas y datos fue adoptado por generaciones posteriores. 1834: Babbage concibió la idea de construir un analizador universal que almacenara programas y datos en una memoria de sólo lectura (tarjetas perforadas). Babbage continuó su trabajo de investigación en 1840, el número de operaciones se aumentó a 40, básicamente implementando la idea de un centro de control (CPU) y un programa almacenado que puede saltar según las condiciones y realizar operaciones generales. en unos segundos. Suma, multiplica y divide en tan solo unos minutos. 1848: el matemático británico George Boole creó el álgebra binaria, allanando el camino para el desarrollo de las computadoras binarias modernas con casi un siglo de anticipación. 1890: El Departamento del Censo de Estados Unidos quiere una máquina que ayude a que el censo sea más eficiente. Herman Hollery (cuya empresa más tarde se convirtió en IBM) tomó prestado el invento de Babbage de utilizar tarjetas perforadas para almacenar datos y diseñó una máquina. El resultado fueron datos demográficos precisos en sólo 6 semanas (habría tardado unos 10 años usando métodos manuales). 1896: Herman Hollery funda la predecesora de IBM. 2. La llegada de las computadoras electrónicas Cien años después del nacimiento de las calculadoras operadas mecánicamente, con el rápido desarrollo de la tecnología electrónica, las computadoras comenzaron una verdadera transición de la era mecánica a la electrónica. Los equipos electrónicos evolucionaron gradualmente hasta convertirse en el cuerpo principal de la computadora y la parte mecánica gradualmente quedó subordinada. Cuando su estatus cambió, las computadoras comenzaron oficialmente a transformarse de cantidad a calidad, lo que llevó al surgimiento oficial de las computadoras electrónicas. Los siguientes son los principales acontecimientos de este período de transición: 1906: El estadounidense De Forest inventa el tubo de electrones, sentando las bases para el desarrollo de las computadoras electrónicas. Febrero de 1924: se funda IBM y nace una empresa que hace época. 1935: IBM presenta el IBM 601. Era una computadora de tarjeta perforada que podía calcular multiplicaciones en un segundo. Esta máquina desempeña un papel importante tanto en ciencias naturales como en aplicaciones comerciales, y se han construido aproximadamente 1.500 unidades. 1937: Alan M. Turing (1912 ~ 1954), de la Universidad de Cambridge en el Reino Unido, publicó un artículo y propuso un modelo matemático conocido como la "máquina de Turing" por las generaciones posteriores. 1937: George Stibitz de Bell Labs demuestra un dispositivo que utiliza relés para representar números binarios. Aunque era sólo una pantalla, fue la primera computadora electrónica binaria. 1940 65438+octubre: Samuel Williams y Stibitz de Bell Labs construyeron con éxito una computadora que podía realizar cálculos complejos. La máquina utiliza una gran cantidad de relés, toma prestada algo de tecnología telefónica y adopta tecnología de codificación avanzada. Verano de 1941: Atanasov y su alumno Berry completaron una computadora que podía resolver ecuaciones algebraicas lineales, llamada "ABC", utilizando condensadores como memoria y tarjetas perforadas como memoria auxiliar. En realidad, los agujeros están quemados, la frecuencia del reloj es de 60 Hz y se necesita un segundo para completar una adición. 1943 65438+octubre: La computadora de control de secuencia automática Mark I se desarrolló con éxito en los Estados Unidos. La máquina completa mide 51 pies de largo, pesa 5 toneladas y tiene 750.000 piezas. Esta máquina utiliza 3304 relés y 60 interruptores como memoria mecánica de solo lectura. Los programas se almacenan en cinta de papel y los datos pueden provenir de una cinta de papel o de un lector de tarjetas. El Mark I se utiliza para calcular las tablas de lanzamiento balístico de la Marina de los EE. UU.

¿Quién inventó la computadora? La primera computadora (ENIAC) nació en Estados Unidos en febrero de 1946. El matemático estadounidense von Neumann propuso el almacenamiento de programas. El desarrollo de ENIAC comenzó en 1943 y se completó en 1946 con el apoyo del Departamento de Guerra de los Estados Unidos. En primer lugar, el nacimiento de las computadoras mecánicas en Europa occidental, desde la Edad Media hasta el Renacimiento, impulsó en gran medida el desarrollo de las ciencias naturales y la tecnología, y la creatividad de las personas, que durante mucho tiempo había sido reprimida por la teocracia, se liberó sin precedentes. Entre estas chispas de pensamiento y creatividad, construir una máquina que pueda ayudar a las personas a calcular es la más deslumbrante y llamativa. Desde entonces, un científico tras otro ha hecho incansables esfuerzos para hacer realidad este gran sueño. Sin embargo, debido al nivel tecnológico de la época, la mayoría de las creaciones experimentales terminaron en fracaso, lo que también demuestra que los pioneros corrieron la misma suerte: muchas veces fracasaron sin ver los resultados de sus esfuerzos. Cuando las generaciones futuras disfrutan de estos dulces frutos, a menudo pueden saborear el sudor y las lágrimas... 1614: el escocés John Knepper (1550 ~ 1617) publicó un artículo en el que menciona que inventó un ingenioso dispositivo que puede realizar cuatro operaciones aritméticas y cuadrar. operaciones raíz. 1623: Wilhelm Schickard (1592 ~ 1635) creó un "reloj calculador" que podía realizar operaciones de suma y resta de hasta 6 dígitos y generar la respuesta tocando la campana. Este dispositivo se opera girando un engranaje. William Outred (1575 ~ 1660) inventó la regla de cálculo. 1668: El inglés Samuel More (1625 ~ 1695) fabricó un dispositivo de suma no decimal adecuado para contar monedas. 1671: el matemático alemán Gottfried Leibniz diseña una herramienta de cálculo que puede realizar operaciones de multiplicación con una respuesta final de hasta 16 dígitos. 1822: el inglés Charles Babbage (1792 ~ 1871) diseña un motor diferencial y un analizador. La teoría del diseño era muy avanzada, similar a las computadoras electrónicas cien años después, especialmente el diseño del uso de tarjetas para ingresar programas y datos fue adoptado por generaciones posteriores. 1834: Babbage concibió la idea de construir un analizador universal que almacenara programas y datos en una memoria de sólo lectura (tarjetas perforadas). Babbage continuó su trabajo de investigación en 1840, el número de operaciones se aumentó a 40, básicamente implementando la idea de un centro de control (CPU) y un programa almacenado que puede saltar según las condiciones y realizar operaciones generales. en unos segundos. Suma, multiplica y divide en tan solo unos minutos. 1848: el matemático británico George Boole creó el álgebra binaria, allanando el camino para el desarrollo de las computadoras binarias modernas con casi un siglo de anticipación. 1890: El Departamento del Censo de Estados Unidos quiere una máquina que ayude a que el censo sea más eficiente. Herman Hollery (cuya empresa más tarde se convirtió en IBM) tomó prestado el invento de Babbage de utilizar tarjetas perforadas para almacenar datos y diseñó una máquina. El resultado fueron datos demográficos precisos en sólo 6 semanas (habría tardado unos 10 años usando métodos manuales). 1896: Herman Hollery funda la predecesora de IBM. 2. La llegada de las computadoras electrónicas Cien años después del nacimiento de las calculadoras operadas mecánicamente, con el rápido desarrollo de la tecnología electrónica, las computadoras comenzaron una verdadera transición de la era mecánica a la electrónica. Los equipos electrónicos evolucionaron gradualmente hasta convertirse en el cuerpo principal de la computadora y la parte mecánica gradualmente quedó subordinada. Cuando su estatus cambió, las computadoras comenzaron oficialmente a transformarse de cantidad a calidad, lo que llevó al surgimiento oficial de las computadoras electrónicas. Los siguientes son los principales acontecimientos de este período de transición: 1906: El estadounidense De Forest inventa el tubo de electrones, sentando las bases para el desarrollo de las computadoras electrónicas. Febrero de 1924: se funda IBM y nace una empresa que hace época. 1935: IBM presenta el IBM 601. Era una computadora de tarjeta perforada que podía calcular multiplicaciones en un segundo. Esta máquina desempeña un papel importante tanto en ciencias naturales como en aplicaciones comerciales, y se han construido aproximadamente 1.500 unidades. 1937: Alan M. Turing (1912 ~ 1954), de la Universidad de Cambridge en el Reino Unido, publicó un artículo y propuso un modelo matemático conocido como la "máquina de Turing" por las generaciones posteriores. 1937: George Stibitz de Bell Labs demuestra un dispositivo que utiliza relés para representar números binarios. Aunque era sólo una pantalla, fue la primera computadora electrónica binaria. 1940 65438+octubre: Samuel Williams y Stibitz de Bell Labs construyeron con éxito una computadora que podía realizar cálculos complejos. La máquina utiliza una gran cantidad de relés, toma prestada algo de tecnología telefónica y adopta tecnología de codificación avanzada. Verano de 1941: Atanasov y su alumno Berry completaron una computadora que podía resolver ecuaciones algebraicas lineales, llamada "ABC", utilizando condensadores como memoria y tarjetas perforadas como memoria auxiliar. En realidad, los agujeros están quemados, la frecuencia del reloj es de 60 Hz y se necesita un segundo para completar una adición. 1943 65438+octubre: La computadora de control de secuencia automática Mark I se desarrolló con éxito en los Estados Unidos. La máquina completa mide 51 pies de largo, pesa 5 toneladas y tiene 750.000 piezas. Esta máquina utiliza 3304 relés y 60 interruptores como memoria mecánica de solo lectura. Los programas se almacenan en cinta de papel y los datos pueden provenir de una cinta de papel o de un lector de tarjetas. El Mark I se utiliza para calcular las tablas de lanzamiento balístico de la Marina de los EE. UU.

Septiembre de 1943: Williams y Stibitz completaron el "Interpolador de relés", más tarde denominado "Calculadora de relés tipo II". Esta era una computadora programable que también usaba cinta de papel para ingresar programas y datos. Funciona de manera más confiable, cada número está representado por 7 relés y puede realizar operaciones de punto flotante. 1946: Nace ENIAC (Electronic Numerical Integrator and Computer), la primera computadora electrónica verdaderamente digital. El desarrollo comenzó en 1943 y se completó en 1946. Los líderes fueron John W. Mauchly y J. Presper Eckert. Pesaba 30 toneladas, utilizaba 18.000 tubos de electrones y tenía una potencia de 25 kilovatios. Se utilizó principalmente para calcular balística y desarrollar bombas de hidrógeno. 3. Desarrollo de computadoras de transistores Aunque las computadoras de la era de los tubos de vacío han entrado en la categoría de computadoras modernas, su popularidad y aplicación son limitadas debido a su gran tamaño, alto consumo de energía, muchas fallas y alto precio. No fue hasta la invención del transistor que los ordenadores electrónicos encontraron su punto de partida para despegar. 1947: William B. Shockley, John Bardeen y Walter H. Bratton de Bell Labs inventaron el transistor, marcando el comienzo de una nueva era de la electrónica. 1949: Wilkes y su equipo en la Universidad de Cambridge construyeron una computadora que podía almacenar programas, y el dispositivo de entrada y salida seguía siendo una cinta de papel. 1949: EDVAC (Computadora automática variable discreta electrónica): la primera computadora que utiliza cinta magnética. Esto fue un gran avance, los programas se podían almacenar en cinta varias veces. Esta máquina fue propuesta por John von Neumann. 1950: Yoshiro Nakamats de la Universidad Imperial de Tokio inventó el disquete y IBM adquirió sus derechos de venta. Como resultado, nació una nueva era del almacenamiento. 1951: Grace Murray Hopper completa el compilador de lenguajes de alto nivel. 1951: ONU Ivac-1: nació el primer sistema informático comercial, diseñado por J. Presper Eckert y John Mauchly. Fue utilizado en el censo por la Oficina del Censo de Estados Unidos, marcando la era de la aplicación comercial de las computadoras. 1953: Se desarrolla con éxito la memoria de núcleo magnético. 1954: John Backus de IBM y su equipo de investigación comenzaron a desarrollar FORTRAN (Traducción de Fórmulas), que se completó en 1957. Es un lenguaje informático de alto nivel adecuado para la investigación científica. 1957: IBM desarrolla con éxito la primera impresora matricial. 4. Los circuitos integrados allanaron el camino para las computadoras modernas. Aunque el uso de transistores ha reducido en gran medida el tamaño, el precio y las fallas de las computadoras, todavía está lejos de las necesidades reales de los usuarios, y varias industrias también han creado una mayor demanda de computadoras. Es imperativo producir máquinas más potentes, más ligeras y más asequibles. La invención del circuito integrado resolvió este problema. La alta integración no solo reduce el tamaño de la computadora, sino que también acelera la velocidad y reduce las fallas. Desde entonces, se han construido microprocesadores revolucionarios. 12 de septiembre de 1958: Liderado por Robert Noyce (fundador de Intel), nació el circuito integrado y pronto se inventó el microprocesador. Sin embargo, debido a que la tecnología de las empresas japonesas fue tomada prestada cuando se inventó el microprocesador, Japón no recibió los beneficios debidos y por lo tanto no reconoció sus patentes. Japón tardó 30 años en admitirlo y permitir que las empresas japonesas obtuvieran algunas ganancias de ello. Pero en 2001 esta patente expiró. 1959: Grace Murray Hopper comienza el desarrollo de COBOL (lenguaje común orientado a los negocios), completado en 1961. 1960: ALGOL: se lanza el primer lenguaje de programación estructurado. 1961: Kenneth Iverson de IBM presenta el lenguaje de programación APL. 1963: DEC lanza la primera computadora pequeña, la PDP-8. 1964: IBM lanza el lenguaje de programación PL/1. 1964: Se lanza la primera serie de computadoras compatibles con IBM 360. DEC lanza la minicomputadora PDB-8. 1965: Se anuncia la Ley de Moore, el número de transistores en un procesador se duplica cada 18 meses y el precio baja a la mitad. 1965: Lofty Zadeh creó la lógica difusa para abordar problemas de aproximación. 1965: Thomas E. Kurtz y John Kemeny completaron el desarrollo del lenguaje Básico (código intraestructurado simbólico universal para principiantes). Especialmente adecuado para la educación en informática y para principiantes, puede promocionarse ampliamente. 1965: Douglas Englebart propuso la idea del ratón pero no la llevó más lejos. Apple Computer no lo adoptó ampliamente hasta 1983. 1965: Se desarrolla con éxito la primera supercomputadora CD6600. 1967: Nicholas Voss comienza el desarrollo del lenguaje PASCAL, que se completó en 1971. 1968: Robert Noyce y varios de sus amigos crean Intel Corporation. 1968: Seymour Paper y su equipo de investigación desarrollan el lenguaje del logotipo en el MIT. 1969: Se lanza ARPANET (Red de Agencias de Proyectos de Investigación Avanzada), el prototipo de la Internet moderna. 7 de abril de 1969: Se lanza el primer estándar de protocolo de red RFC. 1970: Intel lanza el primer chip RAM con una capacidad de 1 KB. 1970: Ken Thomson y Dennis Ritchie comienzan a desarrollar el sistema operativo UNIX. 1970: Se desarrolla la cuarta generación de lenguajes de programación. 1970: ARPANet, el prototipo de Internet, se completa básicamente y comienza a abrirse a sectores no militares.