NOTICIA COMENTADA 780
La inteligencia artificial y sus peligros. Los análisis de Hinton y Schmidt, "padres" de la IA. DUC IN ALTUM. Por Aldo María Valli. 08ene25. https://www.aldomariavalli.it/2025/01/08/lintelligenza-artificiale-e-i-suoi-pericoli-le-analisi-di-hinton-e-schmidt-padri-dellia/
Resumen:
La inteligencia artificial podría provocar la extinción de la humanidad en treinta años.
La predicción no proviene de un catastrofista con ganas de análisis apocalípticos, sino de un verdadero experto, nada menos que Geoffrey Hinton, considerado uno de los padres de la inteligencia artificial (IA).
El colapso social puede estar sobre nosotros, dice el informático británico-canadiense, porque los cambios se están produciendo a un ritmo mucho más rápido de lo esperado.
Hinton, que recibió el Premio Nobel de Física este año, no es ajeno a tales alarmas. Ya había dicho que la IA podría desencadenar un mecanismo catastrófico para la humanidad, y ahora, entrevistado por la BBC, lo ha cuantificado: la posibilidad de que esto ocurra está entre el 10 y el 20 por ciento.

Hinton, londinense de nacimiento y profesor emérito de la Universidad de Toronto, compara a los humanos con niños pequeños cuando los compara con sistemas de inteligencia artificial cada vez más potentes: "Imagínese comparado con un niño de tres años. Bueno, comparados con la IA somos niños de tres años. Y nunca antes habíamos tenido que lidiar con cosas que eran más inteligentes que las que no lo eran".
Hinton fue noticia el año pasado después de que renunció a Google para tener la oportunidad de hablar más abiertamente sobre los riesgos que plantea el desarrollo de la IA mal gobernado. En resumen, el miedo es lo que nos cuentan muchas historias de ciencia ficción, es decir, que sistemas de inteligencia artificial cada vez más poderosos y omnipresentes puedan escapar del control humano hasta el punto de convertirse en una amenaza para nuestra especie.
"No pensé – dice Hinton – que llegaríamos tan pronto al punto en el que nos encontramos. Pensé que tardaría más. Hoy en día, la mayoría de los expertos de la industria predicen que tarde o temprano, probablemente dentro de los próximos veinte años, desarrollaremos una IA que sea más inteligente que los humanos. Y este es un pensamiento que me asusta."
De ahí el llamado a medidas gubernamentales urgentes: "Mi preocupación es que la mano invisible no nos mantendrá a salvo. Dejar que sólo las ganancias corporativas impulsen el desarrollo no será suficiente para garantizar la seguridad. Lo único que puede obligar a estas grandes empresas a realizar más investigaciones sobre seguridad es la regulación gubernamental".
No todos los expertos piensan como Hinton. Por ejemplo, Yann LeCun, científico jefe de IA en Meta de Mark Zuckerberg, sostiene que la IA podría salvar a la humanidad de la extinción. El propio Hinton tenía menos miedos hace unos años, pero con la llegada de ChatGpt su visión ha cambiado.
Hinton, de setenta y seis años, dice que dejó Google en 2023 precisamente para poder hablar de los peligros de la IA: "No quiero decir que Google me lo impidiera, pero quería poder hablar al respecto sin temer el impacto de mis análisis sobre la agencia".
Corría el año 2013 cuando Hinton llegó a Google, donde trabajó en una red neuronal capaz de aprender por sí sola a identificar objetos comunes. Se convierte así en uno de los pioneros del aprendizaje profundo subyacente a los modelos de lenguaje grandes, grandes modelos de lenguaje como ChatGpt y Gemini.
En 2018 ganó el Premio Turing, una especie de Nobel de informática, y continúa trabajando en el desarrollo de algoritmos necesarios para el entrenamiento de redes neuronales y técnicas de aprendizaje automático, en los que ya no es necesaria la contribución humana.
En 2022, con la publicación de ChatGpt por parte de OpenAi, surgen preocupaciones. En una entrevista con el New York Times, Hinton ve emerger una posibilidad concreta: el mundo actual, el que conocemos, pronto podría ser reemplazado por un universo de textos, imágenes, audio y vídeos creados por la IA. Con la transición a la IA generativa será posible borrar cualquier distinción entre realidad y ficción. Ya ahora se cuestiona la idea misma de la realidad y es necesario repensarla.
Hinton no es el único especialista interrogado. En una entrevista para la presentación de su nuevo libro (Génesis: Inteligencia artificial, esperanza y espíritu humano), Eric Schmidt, ex director general de Google, hace unos días, hablando de la asombrosa rapidez en el progreso de la IA, dijo al ABC: "No sabemos qué significará darle este poder a cada individuo del planeta".
Este es un nuevo motivo de reflexión. Schmidt, de hecho, no sólo pide más gobierno y más regulación, para evitar que algún día la IA generativa se vuelva autónoma del hombre fijando sus propios objetivos, sino que plantea una cuestión vinculada a la explosión del uso cada vez más extendido de modelos de IA. de poder creciente: "El poder de esta inteligencia es que cada individuo tendrá el equivalente de un experto universal en su bolsillo. Es como si un autor de su exposición, además de sus notas y sus colaboradores, tuviera a su disposición un Einstein y un Leonardo da Vinci para darle consejos. Esto puede ser cierto para cada persona del planeta, pero en este momento simplemente no sabemos qué significa darle este tipo de poder a cada individuo".
Y aquí se enciende en cada uno de nosotros otra señal de alarma: si alguien se pregunta qué significa conceder este poder a cada individuo, ¿significa que ya está pensando en la discriminación? ¿Habrá alguien que podrá acceder a estos recursos y alguien que no? ¿Pero quién decidirá sobre esto? ¿Y cómo? ¿Qué personas no serán consideradas "aptas" para utilizar los nuevos recursos? ¿Y por qué motivos?
Cuestiones que no atañen a un futuro lejano, porque la IA ya está aquí, ya está operativa en múltiples sectores de aplicación. Estamos ante algo que quizás sólo pueda compararse con la revolución industrial, pero con una diferencia sustancial: la revolución actual se está produciendo a una velocidad sin precedentes.
COMENTARIOS
Todos los adelantos tecnológicos pueden convertirse en un peligro cuando se hace un uso
indebido de ellos. Por lo general podemos decir que el mal no radica en la tecnología, sino en
quien hace mal uso de ella. Pero, en el caso de la inteligencia artificial, posiblemente no se
aplique este principio...
¿Qué es la inteligencia artificial (IA)?
En una definición tomada del programa GEMINI de IA de Google, se define como un campo de
la informática que se centra en crear máquinas que puedan realizar tareas que normalmente
requieren inteligencia humana... La IA se basa en el aprendizaje automático y el aprendizaje
profundo, y los sistemas de IA aprenden y mejoran a través de la exposición a grandes
cantidades de datos.
Estamos hablando de un programa que no solo guarda información digital, sino que es capaz
de organizarla y utilizarla de una forma distinta a la de los documentos originales. Se han
imitado los procesos de pensamiento del ser humano y se han reproducido por medio de
programas informáticos que realizan tareas más rápido y mejor que la mente humana. Un
ejemplo: tenemos 20 documentos que hablan de los vegetales saludables para el hombre.
Una persona puede leer esos 20 documentos y elaborar un resumen, si eso es lo que
necesita; pero para hacerlo requiere tiempo: leerlos, destacar los aspectos más importantes,
y luego empezar a redactar un resumen, cosa que le podrá llevar varias horas e incluso días,
si se trata de documentos científicos y especializados. Pero utilizando la IA, basta con que se
les anexe los 20 documentos en forma de archivos digitalizados y se le pida que haga un
resumen de todos ellos. Esto le tomará ... segundos solamente... contra las horas o días que
una sola persona debiera dedicar a esa tarea. ¿Y si le pedimos que elabore un examen sobre
esa información? También lo puede hacer... ¿Y si le pedimos que elabore un juicio crítico de
cada documento? También lo puede hacer, aunque podría tener información sesgada,
parcial, puesto que trabaja con las bases de datos existentes... ¿Y si le solicitamos que
aplique la información de esos 20 documentos en un proyecto agrícola? Es probable que
también lo haga, aunque solicitará información más específica...
Pero el potencial de la IA es inmenso, que se enriquece con toda la información que circula
en las redes, y que se incrementa día a día. La situación es que siguen apareciendo nuevas
plataformas de IA, cada una de ellas más poderosa que las anteriores. Una de las más
solicitadas, además de Gemini, es ChatGPT. Pero ha aparecido recientemente otra con
funciones más novedosas, que promete superar a las anteriores: Deepseek, desarrollada en
China.
¿Los programas de IA son capaces de aprender?
Depende de cómo definamos el aprendizaje. Si sólo lo consideramos como una acumulación
de conocimientos y la posibilidad de interrelacionarlos para generar un nuevo producto, la
respuesta es SÍ. Pero si hablamos del aprendizaje como sinónimo de conocimiento cierto, la
respuesta sería NO. Tampoco habría aprendizaje en un contexto profundo del sentido del
bien y del mal.
Claro que la IA podrá dar una respuesta sobre lo que se afirma como cierto, y también de lo
que se considera bueno o malo, pero solo en el contexto de la información disponible. Pero
jamás tendrá la certeza de conocer la verdad y ni podrá conocer el bien o el mal en su
profunda y misteriosa esencia, sino solo por medio de las manifestaciones digitalizadas a las
que tiene acceso. Lo mismo sucede con la belleza. En pocas palabras la IA: no podrá conocer
a fondo la verdad, la bondad y la belleza; es decir, jamás llegará a conocer a Quien encarna
estos atributos: Dios, como la suma de la Verdad, de la Bondad y la Belleza.
¿La IA representa un peligro para la humanidad?
En la falta de humanidad radica su peligro. Geoffrey Hinton, considerado como uno de los
padres de la inteligencia artificial, quien trabajo para Google, en el desarrollo de Gemini, nos
previene de los grandes riesgos. Si la IA puede aprender, en el sentido arriba mencionado, es
probable que genere información peligrosa para la humanidad.
No estamos hablando de una computadora que controla ella sola la vida en el planeta
(aunque podría llegarse a este punto), sino de los usuarios que le pidan que desarrolle un
plan para acabar con la vida de una persona, o de un grupo de personas, o de diversas
instituciones, como la Iglesia Católica. De hecho, ya se le preguntó a la IA cuáles serían las
estrategias para acabar con la Iglesia. Y la información fue publicada.
Volviendo a la prevención que nos hace Hinton, nos previene de que la IA podría provocar la
extinción de la humanidad en 30 años. Compara a la humanidad con un niño de tres años,
frente al poder de la IA. Las posibilidades de usar la IA para el mal son inimaginables, y las
consecuencias, aún más terribles.
De allí la insistencia de Hinton en que se regule el diseño y su uso de la IA. Aunque,
conociendo a los gobiernos y las élites