This content was deleted by the author. You can see it from Blockchain History logs.

Inteligencia Artificial - Historia y conceptos básicos

inteligenciaartificial.jpg

En la última década nos hemos aficionado a ponerle a todo el sufijo de inteligente: teléfonos inteligentes, neveras inteligentes, autos inteligentes, paraguas inteligentes pero, si ya resulta difícil definir la inteligencia porque, para empezar, no existe una única definición, mucho más complicado resultará dotar de ella a meros artilugios electrónicos. Curiosamente la inteligencia es lo que mejor repartido está, todo el mundo cree que tiene de sobra y, paradójicamente, no cabe un tonto más.
Pero antes de empezar a alucinar y discutir si la IA acabará o no con la humanidad, vamos a entender que es y cuál es su evolución. El diccionario de la RAE define la inteligencia artificial como: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”.
Aunque hay quien considera algunos de los inventos de Leonardo Da Vinci o la máquina de diferencias de Charles Babbage como pioneros de la inteligencia artificial, personalmente creo que el auténtico alumbrador de la inteligencia artificial es Alan Turing, un brillante genio británico de principios del siglo XX, no solo porque es el creador de la “máquina de Turing” precursora de todos los ordenadores, sin los cuales no habría inteligencia artificial si no porque fue el primero en plantearse formalmente la pregunta ¿pueden pensar las máquinas?, en su ensayo “Computing Machinery and Intelligence” de 1950, en el que propuso el “Test de Turing” que consistiría, adaptándolo al día de hoy, en sí una persona chateando simultáneamente con otra persona y un chat-bot sería capaz de distinguir cuál es cuál, es decir, ¿podría una inteligencia artificial confundirse con un ser humano?.
Oficialmente, para la mayoría, tanto el término “Inteligencia Artificial” como la disciplina en sí nacen en la Conferencia de Dartmouth celebrada en el verano de 1956 en EEUU, en la que cuatro iluminados que responden a los nombres de John McCarthy, Marvin L. Minsky, Nathaniel Rochester y Claude E. Shannon, en la que propusieron un estudio de 2 meses llevado a cabo por 10 hombres con base en la conjetura de que “cualquier aspecto del aprendizaje o cualquier otro aspecto de la inteligencia puede ser tan precisamente descrito como para que una máquina lo pueda simular”.
A pesar de que de aquella conferencia salieron todos convencidos de que en 10 o 15 años habría máquinas capaces de pensar, la cosa no fue tan optimista como os habréis percatado, no obstante se hicieron algunos avances en traducciones automáticas de inglés a ruso e incluso construyeron una máquina capaz de jugar y ganar a las damas. Pero la escasa potencia de cálculo de los ordenadores de los años 60 del siglo pasado si bien habían mejorado bastante desde sus inicios, aún distaban muchísimo de poseer la capacidad de cálculo necesaria para llevar a cabo procesos de inteligencia artificial, prueba de ello es que, desde aquello, no hubo ningún avance significativo hasta la década de los 90 en que IBM crea la súper computadora Deep Blue que, en su segunda versión, gana al ajedrez a Gary Kaspárov, campeón mundial vigente en 1997. Hay que tener en cuenta que, aunque realmente sea una proeza, la maquinita Deep Blue era un monstruo de procesamiento paralelo masivo, con 900 procesadores punteros en la época con un poder de proceso de más de 11 Gflops o lo que es lo mismo once mil millones (11.000.000.000) de operaciones por segundo programado todo ello exclusivamente para jugar al ajedrez.
Catorce años después en 2011 también IBM construye el súper ordenador Watson que ganará a dos de los campeones del juego estadounidense Jeopardy de preguntas y respuestas, en su interior albergaba 2.880 procesadores en paralelo capaces de procesar 80 Tflops o lo que es lo mismo 80 billones (80.000.000.000.000) de operaciones por segundo. Tres años después Google adquiere Deepmind Technologies compañía que había creado una red neuronal capaz aprender a jugar videojuegos de la forma en que lo hacen los humanos, por ensayo y error, pasándose a llamarse Google Deepmind, de esta compañía surge el programa AphaGo que en 2016 ganará al mejor jugador del mundo de Go, un juego chino de estrategia con 10170 posibles movimientos, una burrada teniendo en cuenta que el número de átomos del universo conocido es de 1080. Además de esto a diferencia de Deep Blue y Watson que fueron programados para sus tareas respectivas la tecnología de Deepmind no está pre-programada y aprende de la experiencia utilizando redes neuronales.
De estos algoritmos surgen el Machine learning y el Deep learning que prácticamente día sí día no nos sorprenden tanto en el reconocimiento de tumores y otras patologías a través de diagnóstico por imagen como en la creación de asistentes personales o reconocimiento de imágenes, autos que se conducen solos y toda suerte de cosas alucinantes pero, ¿realmente podemos sentirnos amenazados por la inteligencia artificial?