miércoles, 15 de enero de 2014


“La tecnología”

La máquina de Babbage

Con el avance a saltos de la tecnología, a finales del siglo XVIII, las tablas matemáticas fueron adquiriendo creciente importancia como ayuda para el cálculo. Esas tablas solían estar plagadas de errores, imputables tanto a la ejecución de las cuentas como al proceso de impresión. El sistema empleado para el cálculo de esas tablas era el "Método de las Diferencias", cuya característica era basar todo cálculo en la adición, sumando cantidades, por compleja que fuera la función.

Tarjetas perforadoras

Las tarjetas perforadas son un medio barato y eficaz para la grabación de datos capaces de ser procesadas por medios mecánicos.
Las tarjetas perforadas fueron usadas por primera vez alrededor de 1725 por Basile Bouchon y Jean-Baptiste Falcon como una forma más robusta de los rollos de papel perforados usados en ese entonces para controlar telares textiles en Francia. Esta técnica fue enormemente mejorada por Joseph Marie Jacquard en su telar de Jacquard en 1801. Charles Babbage lanzó la idea del uso de las tarjetas perforadas como un modo de controlar una calculadora mecánica que él mismo diseñó.

Tubo de vacío


El tubo de vacío es un componente electrónico que amplifica, modifica o crea una señal eléctrica por el control de los electrones en un espacio a baja presión, cercano al vacío.
Los tubos de vacío fueron un descubrimiento crítico en el desarrollo de la tecnología electrónica que desembocó en la comercialización de Radios, televisión, radar, reproducción de sonido, grandes redes telefónicas, computadoras analógicas y digitales, etc.
 

Eniac

(Electronica Numeral Integrator and Computer)
   El ENIAC nació en 1943, aunque no se terminó de construir hasta 1946, fue un contrato entre el ejército de EE.UU y sus desarrolladores John Mauchly y John Presper Eckert, llamado "Proyecto PX".  El ENIAC fue un ordenador electrónico digital con fines generales a gran escala. Fue en su época la máquina más grande del mundo, compuesto de 17468 tubos de vacío.
Éste  estaba dividido en 30 unidades autónomas, 20 de las cuales eran llamada acumuladores. Cada acumulador era una máquina de sumar 10 dígitos a gran velocidad y que podía almacenar sus propios cálculos.

Circuito integrado


La idea de circuito integrado nace de la necesidad de reducir los circuitos eléctricos a uno mucho más sencillo y pequeño. Gracias a ellos, se evitaron la multitud de problemas que se daban a la hora de fabricar un circuito, como por ejemplo, que alguna de las miles de soldaduras que había que realizar estuviera defectuosa, o la reducción del espacio que ocupaban las válvulas de vacío, las cuales se vieron rápidamente obsoletas gracias a las mejoras que supuso la introducción de los circuitos integrados.
Actualmente se utilizan en prácticamente todas las tecnologías. Básicamente, los circuitos integrados, también llamados "chips", son una pequeña pastilla de material semiconductor sobre la que se integran circuitos en miniatura y se protegen con encapsulados de plástico, cerámica o metal.
El creador del primer circuito integrado, fue el ingeniero electrónico estadounidense Jack Kilby, en el año 1959, pocos meses después de ser contratado por Texas Instruments. Se trataba de un dispositivo que integraba seis transistores sobre una misma base semiconductora para formar un oscilador de rotación de fase. A los 77 años, en el año 2000, Kilby fue galardonado con el Premio Nobel de Física por su contribución al desarrollo de la tecnología de la información.
 

Microprocesador

El microprocesador es el circuito integrado más importante. Está formado por millones de transistores integrados. Incorpora en su interior una unidad central de proceso (CPU) permitiendo enlazar otros dispositivos. Para realizar su trabajo debe ejecutar paso a paso un programa que consiste en una secuencia de números binarios o instrucciones, almacenándolas en uno o más elementos de memoria, generalmente externos al mismo. La aplicación más importante de los microprocesadores, el ordenador.

 

Alan Turing

"El inglés Alan Turing (1912-1954) puede ser considerado el padre de la Inteligencia Artificial.
"Durante los años de la segunda guerra mundial, Turing colaboró en el diseño de una máquina llamada la ‘Bomba’ que exploraba las combinaciones posibles generadas por la máquina codificadora alemana ‘Enigma’.

 


Inteligencia  artificial


el término "inteligencia artificial" fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La AI es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar".
Una de las grandes razones por la cuales se realiza el estudio de la IA es él poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.

 
Electrónica molecular


La electrónica molecular, a veces llamada moletrónica, es la rama de la ciencia que estudia el uso de moléculas orgánicas en la electrónica.
Los primeros trabajos acerca de la transferencia de cargas eléctricas entre moléculas fueron realizados por Robert Mulliken y Albert Szent-Gyorgi en 1940. Sin embargo, el primer dispositivo moletrónico no fue desarrollado hasta 1974, año en el que se construye un biestable de melanina. En 1988 fue descrita una molécula capaz de actuar como un transistor de efecto campo.
Electrónica molecular es el conjunto de comportamientos electrónicos en estructuras que contienen moléculas que dependen de la organización molecular característica del espacio.

Steve Jobs

(Los Altos, California, 1955 - Los Ángeles, 2011) Informático y empresario estadounidense. Padre del primer ordenador personal (el Apple I) y fundador de Apple Computer, probablemente la empresa más innovadora del sector, este mago de la informática fue uno de los más influyentes de la vertiginosa escalada tecnológica en que aún vive el mundo actual, contribuyendo decisivamente a la popularización de la informática. Sus ideas visionarias en el campo de los ordenadores personales, la música digital o la telefonía móvil revolucionaron los mercados y los hábitos de millones de personas durante más de cuatro décadas.

 

Steve Wozniak
 (Nacido el 11 de agosto de 1950) es un ingeniero de software convertido en filántropo. Sus inventos y máquinas están reconocidos como grandes contribuyentes a la revolución del ordenador personal en los años setenta. Wozniak fundó Apple Computer junto con Steve Jobs en 1976 y creó los ordenadores Apple I y Apple II a mediados de los años setenta. El Apple II se convirtió en el ordenador mejor vendido de los años setenta y de los primeros ochenta, y es a menudo reconocido como el primer ordenador personal popular.

Es muy importante destacar que la tecnología es muy importante hoy en día y cabe señalar que sin duda ésta seguirá aportando cosas nuevas e interesantes para nuestra vida, y esta de más decir que es muy buena siempre y  cuando sea utilizada de la manera correcta.

Todo lo que aparece aquí es muy bueno pata conocer la evolución de la tecnología.



No hay comentarios:

Publicar un comentario