Enviado a la página web de Redes Cristianas
ASINJA: material de reflexión interdisciplinar:
https://www.elconfidencial.com/cultura/2022-06-09/ia-maquinasinteligencia-artificialfuturo_3437291/?utm_source=facebook&utm_medium=social&utm_ca
mpaign=BotoneraWeb&fbclid=IwAR2dsqRwhDWpUDZTQuvBbqEPvhYe
aN3D-VPGCkvhh-oknZ6Jjyfl-zFA6f4
Los desacuerdos acerca del futuro del ser humano con la inteligencia
artificial se recrudecen al tiempo que el debate se muestra cada vez
más interesante
Sería difícil encontrar un campo de investigación tecnocientífica en el
que las discrepancias acerca del alcance de lo conseguido hasta el
momento, así como de lo que es probable que se pueda conseguir en
las próximas décadas, sean mayores que en el de la inteligencia
artificial (IA). La imagen popular y las expectativas generadas por la
ciencia ficción, alimentadas por algunos científicos de renombre
externos al campo, como Stephen Hawking, han dominado con
frecuencia sobre los análisis de los especialistas, que suelen ser más
prudentes.
El escenario futuro que más interés suscita y más miedo genera es el
de la tan traída y llevada Singularidad, es decir, el momento en el que,
tras haber creado auténtica inteligencia artificial general (la que
tenemos ahora, que realiza solo tareas concretas, se considera
inteligencia artificial particular o estrecha), las máquinas serán
capaces de crear otras más inteligentes que ellas mismas, o de
perfeccionarse a sí mismas, en un proceso rápido que algunos
describen como una “explosión de inteligencia”, y a partir de ese
momento ellas tomarán el control de todo.
Ray Kurzweil, un controvertido ingeniero de Google, cree que
esto ocurrirá en torno al año 2045, aunque otros defensores de la idea
lo sitúan más adelante, quizás en el próximo siglo.
No faltan nombres relevantes entre los que creen no solo posible, sino
muy probable, que se dé tarde o temprano la Singularidad. Entre ellos,
los empresarios Elon Musk y Bill Gates, el historiador Yuval Noah
Harari, los filósofos Nick Bostrom y David Chalmers, el físico Max
Tegmark o el científico computacional Stuart Russell.
Sin embargo, para otros expertos en inteligencia artificial, como Gary
Marcus, Ernest Davis, Margaret Boden, Erik J. Larson, Luc Julia (uno
de los creadores de Siri), Luciano Floridi, Yann LeCun (científico jefe
de inteligencia artificial en Meta) y, en nuestro país, Ramón López de
Mántaras, este discurso no pasa de ser una tecnofantasía que ha
conseguido atrapar la imaginación del público con sus predicciones
apocalípticas. Lo novedoso, diría yo, es que las voces discrepantes de
estos expertos comienzan a ser oídas.
¿Posible o imposible?
La cuestión de si tendremos alguna vez máquinas capaces de hacer
máquinas más inteligentes ha sido analizada desde los orígenes
mismos de la inteligencia artificial. Uno de los primeros en hacerlo fue
uno de los pioneros, John von Neumann, y concluyó que este tipo de
máquinas podría ser factible si alcanzáramos un nivel de complejidad
suficientemente alto.
La pregunta es justamente si alcanzaremos alguna vez ese nivel
de complejidad en el que las máquinas puedan lograr una mejora
recursiva, es decir, no solo mejorar en inteligencia, sino mejorar su
capacidad para hacer máquinas mejores. No hay acuerdo en que tal
cosa sea posible, aunque tampoco se ha demostrado que sea
imposible.
Pero no hay que descuidar el hecho de que, antes de eso, tendríamos
que haber logrado máquinas con inteligencia artificial general (AGI, por
las siglas en inglés). Tal y como las definen dos teóricos de estas
máquinas, son “sistemas de IA que poseen un grado razonable de
autocomprensión y autocontrol autónomo, y tienen la capacidad para
resolver una variedad de problemas complejos en una variedad de
contextos, y para aprender a resolver nuevos problemas que no
conocían en el momento de su creación”.
Dejaremos aquí de lado, aunque es también un asunto relevante
y discutido, si para que se produzca la Singularidad, esas máquinas
deberían tener también autoconsciencia y voluntad (lo que las
constituiría, por cierto, en agentes morales), y si ambas cosas
surgirían espontáneamente como propiedades emergentes una vez
alcanzado un cierto nivel de inteligencia. También aquí los
desacuerdos son notables.
La IA ha experimentado un progreso sorprendente
pero no se ha debido a ningún cambio
revolucionario
La IA ha experimentado un progreso sorprendente desde mediados de
la primera década de este siglo. Pero ello no se ha debido a ningún
cambio revolucionario de paradigma, a ninguna gran transformación
teórica.
Como nos recuerdan Marcus y Davis en su libro Rebooting AI, se
debe a dos factores más prosaicos: por un lado, el aumento en la
capacidad de memoria y en la velocidad de computación del hardware
y, por otro, el acceso a los big data (cantidades masivas de datos
almacenadas en nuestros ordenadores) mediante algoritmos muy
eficientes, como los del aprendizaje profundo, y redes neuronales más
complejas.
Sin embargo, en su opinión, ninguno de estos progresos nos
sitúa cerca de la AGI. No basta con aumentar la capacidad de
cómputo del hardware, el número de datos suministrados y la mejora
de los algoritmos existentes para conseguir máquinas
superinteligentes.
Recientemente, un sistema multimodal desarrollado por DeepMind ha
sido presentado a la prensa como un “precursor de la inteligencia
artificial general” y como un “agente generalista”. Gato, usando
siempre misma red neuronal, con los mismos pesos, es capaz de
realizar 604 tareas diferentes, entre ellas, reconocer imágenes,
controlar un brazo robótico, jugar a Atari o chatear.
No se limita, pues, a las tareas únicas que realizan los sistemas actuales y no tiene que ser reprogramado para pasar de una tarea a otra. Aprende a realizar
tareas diversas al mismo tiempo. Nando de Freitas, un ejecutivo de
DeepMind y principal firmante del artículo de presentación, afirmaba
en Twitter que “el juego había acabado”, que ahora alcanzar a la
inteligencia humana era solo cuestión de aumentar la escala de Gato.
Sin embargo, no todos creen que Gato, al igual que otros
sistemas previos multimodales, sea un paso significativo para
alcanzar la AGI.
Como Gary Marcus ha señalado, Gato puede realizar
muchas tareas distintas, pero ha sido entrenado para realizar cada una
de ellas y ante una nueva tarea no sería capaz de aprovechar todo lo
aprendido en las anteriores, no podría analizarla lógicamente, razonar
sobre ella y conectar esta nueva tarea con las otras, entendiendo que
hay implicaciones relevantes entre ellas pese a pertenecer a contextos
muy distintos. Algo así, sin embargo, sería posible si tuviera una
verdadera comprensión de lo que está haciendo. No puede decirse,
por tanto, que Gato tenga una mejor comprensión del mundo que los
sistemas hasta ahora en uso.
Decisiones concretas
¿Por qué estos desacuerdos tan radicales? ¿A quién hacer caso?
¿Hemos de temer a las máquinas superinteligentes, que podrían
extinguirnos no por maldad, sino por simple desinterés hacia
nosotros, o hemos de creer que estas especulaciones son vanas y nos
distraen de los verdaderos problemas que hoy suscita la IA, que son
muchos, como el control de los datos y la pérdida de privacidad, la
vigilancia mediante reconocimiento facial, sesgos racistas y sexistas
en lo algoritmos, los ciberataques, la desinformación mediante
chatbots, las armas autónomas, etc.? Quizás antes de preocuparnos
por si habrá alguna vez AGI, deberíamos prestar atención a qué
decisiones concretas estamos dispuestos en el futuro a poner en las
máquinas inteligentes y cuáles serían sus efectos prácticos sobre
nuestra existencia.
La incertidumbre en las predicciones sobre la
tecnología es moneda común, pero es mucho más
pronunciada con las tecnologías disruptivas
Una de las causas principales de la imprevisibilidad del futuro de la
inteligencia artificial radica precisamente en el enorme potencial de
desarrollo que encierra. Constituye, de hecho, un ejemplo claro de
tecnología disruptiva. En este tipo de tecnologías, que implican
discontinuidades no solo económicas o empresariales, sino también
culturales, sociales e históricas, es casi imposible saber qué rumbo
tomarán a medio y largo plazo su desarrollo y su gestión, y, por tanto,
es difícil predecir los impactos sociales que tendrán.
Es cierto que la incertidumbre en las predicciones sobre la
tecnología en general es moneda común, pero es mucho más
pronunciada en el caso de las tecnologías disruptivas. De lo que nadie
duda es de que, tengamos o no pronto la AGI, los cambios van a ser
muy profundos.
Quizá por ello, y puesto que no cabe descartar por completo las
posibilidades más amenazantes, comienza a haber voces críticas que
se manifiestan contra la pretensión de generar una AGI (inteligencia
artificial general), al menos hasta no estar seguros de que podríamos
mantener su control o infundir en ella valores morales (cosas ambas
nada fáciles en principio).
En lugar de ello, se ha propuesto incentivar la búsqueda de
inteligencias artificiales que aumenten, mediante la cooperación, la
propia inteligencia humana. En la gobernanza de la IA nos jugamos el
futuro y no podemos dejar las decisiones más importantes en manos
de esos mismos sistemas, ni tampoco en manos de quienes dirigen
las empresas dedicadas a su creación. La discusión sobre este asunto
ya ha comenzado, y está generando reflexiones interesantes, pero va
siendo hora de concretar también las instituciones adecuadas para
hacer efectivas las normas que regulen la investigación y la aplicación
de esta tecnología