Inteligencia Artificial (IA) y nuestro futuro

13 de febreiro 2022
Actualizado: 18 de xuño 2024

Estos días el conflicto en Ucrania me hizo recordar la película Juegos de Guerrai> (1983) donde un ordenador "Joshua" comienza un juego de Guerra Termonuclear Mundial y no entiende la diferencia entre una simulación y la realidad

Estos días el conflicto en Ucrania me hizo recordar la película Juegos de Guerra (1983) donde un ordenador "Joshua" comienza un juego de Guerra Termonuclear Mundial y no entiende la diferencia entre una simulación y la realidad. Tenemos a Prometeo descrito en Vida 3.0 de Max Tegmark que es una IA que escapa al control de los humanos, y a otros os vendrán las imágenes de Terminator, el Nexus-6 de Blade Runner o el niño de la película IA, etc. La pregunta es: ¿surgirá una IA comparable o superior a la humana? ¿Cuándo? ¿Será beneficioso? ¿Podremos controlarla?...

El avance de la IA nos ayudará a mejorar el mundo, nuestras vidas, ¿pero y si llega el día que la IA alcanza el nivel de los humanos y quizás los supera? Hay expertos que piensan que surgirá en pocos años, la mayoría como en los próximos 100 años, y otros que no pasará. El debate está sobre la mesa, y el tiempo dirá. Si llega el día que dejamos de ser los seres más inteligentes en el planeta azul, porque llegan unos aliens más avanzados o porque generamos unas IA que acaban superándonos, es posible que perdamos el control. Si esto sucediese, ¿estaría nuestro futuro en peligro?

Si definimos inteligencia como la capacidad de lograr objetivos complejos, los investigadores en IA buscan construir una inteligencia artificial general (IAG) que podría lograr cualquier objetivo, incluido el de aprender. Podría llegar el día que la IA puedan diseñar otras IAs, entonces que pintaríamos nosotros si sus objetivos no son los mismos, ¿nos eliminarían? ¿conviviríamos? ¿nos usarían a su conveniencia? ¿Y si unos pocos humanos controlan la IA, podrían dominar el mundo?... Sería bueno tener claro que dirección tomar para el desarrollo de IA superinteligente, ya que podría tener en cuenta lo mejor o lo peor de nosotros mismos, los humanos. Si no hay una autodestrucción antes, esto marcará el futuro de la humanidad, o si esta se extinguiese de la IA.

La vida surgió hace millones de años en la tierra, y evolucionó, hasta crear diversidad, entre ellos el Homo Sapiens. La mejora de la tecnología (ej. IA) aparte del impacto sobre nuestro día a día, podría ser nuestra salvación a la hora de expandirnos por el Universo, nos ayudaría a controlar las leyes físicas y cósmicas… y asegurar la supervivencia de la humanidad. Sin embargo, los expertos alientan que debemos hacerlo con cuidado, para que no perdamos el control o no se nos vaya de madre como dirían en México. Es bueno recordar que todo lo que hace el ser humano, puede ser un arma de doble filo.

El gran visionario y divulgador Isaac Asimov propuso hace unas décadas las tres leyes de la robótica: 1) Un robot no hará daño a un ser humano ni permitirá con su inacción que este sufra daño; 2) Un robot debe obedecer las órdenes que recibe de los seres humanos, salvo si tales órdenes entran en conflicto con la primera ley y, 3) Un robot debe proteger su propia existencia, siempre que esta protección no entre en conflicto con la primera o con la segunda ley. El ser humano busca conformar los objetivos de la IA con los suyos, pero esto plantea tres problemas aún sin resolver: 1) Hacer que la IA entienda nuestros objetivos; 2) Hacer que la IA adopte nuestros objetivos y 3) Hacer que la IA conserve nuestros objetivos. Por ejemplo, no se sabe cómo hacer que una IA superinteligente no tenga un objetivo último que pueda conducir a la destrucción de la humanidad. Crearíamos a nuestros propios verdugos. El proceso está en marcha ¿sabremos controlarlo?

Por otro lado, ¿llegarán a tener consciencia las IA? ¿deben tener derechos? ¿pueden sufrir?... Por todo esto y mucho más, los expertos, entre los que se encuentran algunas de las mentes más brillantes del planeta, han creado Los Principios de Asilomar para la IA (https://futureoflife.org/ai-principles). Nos queda aún mucho por hacer, y esos principios posiblemente tendrán que evolucionar. A partir de ahora aparte de ir familiarizándonos con la IA, deberemos ir con pies de plomo mientras se desarrolla y evoluciona. ¿Hay que ser optimistas? Si, pero siendo precavidos, planificando, y marcando objetivos. Ya dice el dicho, más vale prevenir que lamentar.