aborto

NOTICIA COMENTADA 615

07.06.2023

Excientífico de Google advierte sobre los peligros de la inteligencia artificial. ACIPRENSA. 09may23. https://www.aciprensa.com/noticias/excientifico-de-google-advierte-sobre-los-peligros-de-la-inteligencia-artificial-10870  

Resumen:

Un destacado investigador de inteligencia artificial (IA), al que algunos llaman el "padrino" de la IA, hace notar que esta tecnología se está desarrollando a un ritmo "aterrador" y advierte que no debería expandirse más allá de nuestra capacidad para controlarla.

Geoffrey Hinton, un investigador de larga data en Google, recientemente jubilado a los 75 años, se sumó a los que apuntan, entre ellos el Papa Francisco, que los peligros potenciales de la nueva tecnología merecen un examen profundo.

En declaraciones a BBC News, Hinton indicó que un software como el sistema de chatbot GPT-4, desarrollado por la empresa OpenAI de San Francisco, "eclipsa a una persona en la cantidad de conocimiento general que posee, y la eclipsa por mucho". "En términos de razonamiento, no es tan bueno, pero ya realiza un razonamiento simple. Y dada la tasa de progreso, esperamos que las cosas mejoren bastante rápido. Así que tenemos que preocuparnos por ello", señaló.

GPT-4 es un modelo de aprendizaje entrenado con enormes cantidades de datos y textos históricos y contemporáneos escritos por humanos. Puede producir textos por sí mismo y generar publicaciones de blogs, poemas y programas de computadora. También puede entablar conversaciones similares a las humanas y responder preguntas, como informa el New York Times.

Sin embargo, estos sistemas aún se encuentran en las primeras etapas de desarrollo y muestran varios defectos: a pesar de hablar con confianza, GPT-4 presenta información incorrecta como un hecho e inventa información en incidentes que los investigadores llaman "alucinaciones". Sistemas similares pueden generar audio convincente e imágenes y videos de estilo fotorrealista, a veces modelados a partir de personas reales.

En la actualidad, estas primeras versiones de inteligencia artificial carecen de autoconciencia. Existe un debate sobre si la autoconciencia es incluso posible para una creación digital.

Hinton, que ahora vive en Canadá, fue pionero en la creación y diseño de "redes neuronales", el tipo de infraestructura de programación que ayuda a las computadoras a aprender nuevas habilidades y formas de análisis. Se utiliza en muchos sistemas de IA. Él y dos colaboradores ganaron el máximo galardón de la computación, el Premio Turing, en 2018. "Llegué a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos" los humanos. "Es como si tuvieras 10.000 personas, y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona", sostuvo.

Para Hinton, un escenario de "pesadilla" sería el desarrollo de un robot al que se le dé la capacidad de crear sus propios objetivos secundarios, y entonces decida que su objetivo sea la maximización de su propio poder.

Otros investigadores han expresado su preocupación de que estos sistemas de IA presenten riesgos a corto, mediano y largo plazo. Los peligros iniciales incluyen a personas que confían erróneamente en desinformación más efectiva y más convincente, incluida información falsa presentada de manera verosímil por una IA. Los riesgos a largo plazo, como los sistemas de inteligencia artificial que escapan del control humano e incluso destruyen a la humanidad, han sido durante mucho tiempo un elemento básico de la ciencia ficción.

Algunos expertos citan el comportamiento inesperado de los sistemas de IA que se están desarrollando actualmente. Si estos se interconectan con otros servicios de Internet y se vuelven tan poderosos que pueden escribir su propio código para automodificarse, la IA fuera de control podría convertirse en un peligro real.

COMENTARIOS 

Algunos científicos afirman que la tecnología es neutral, que depende del uso que se haga de ella, se convierte en un bien o un mal para la humanidad. Esta opinión tiene algo de verdad, pero no es absolutamente cierta. Y es que la tecnología resulta de la aplicación de principios teóricos, filosóficos o ideológicos, que cuándo se convierte en un recurso tecnológico, participa de la bondad o malicia de la filosofía que lo inspira. La tecnología no surge de la nada; es inspirada y sostenida por una teoría o una filosofía. Esto es particularmente importante cuando vemos ahora que los principios filosóficos y morales están impregnados de ateísmo y de materialismo, y de una idea equivocada de que la ciencia debe avanzar aún a costa de la moral. Es decir, que el descubrimiento científico justifica la violación a los derechos de las personas, de su dignidad y de los principios morales inscritos en la conciencia del hombre.

Pero aún hay más. Dios creó al hombre a su imagen y semejanza, conforme a un plan, en el que mediante el uso de su libertad y los recursos proporcionados, pudiera alcanzar el cielo. Pero parece que la humanidad no está conforme con lo que Dios le ha dado, y se revela contra el plan divino. Quiere hacer al hombre más perfecto, no sobre la base moral, mediante el desarrollo de virtudes, ni con la gracia sobrenatural, sino mediante la tecnología. Y esto, en el plan de la creación, representa ya una rebeldía.

El avance tecnológico actual es impresionante. La llamada inteligencia artificial provoca no sólo asombro por sus desarrollos y sus posibilidades, sino también temor e incertidumbre, por la posibilidad de una aplicación indebida o equivocada, ya sea intencionalmente o de manera accidental.

El ejemplo que nos pone Geoffrey Hinton es sorprendente al tiempo que aterrador: "es como si tuvieras 10,000 personas y cada vez que una persona aprendiera algo, todos lo supieran automáticamente". Usado para el bien, este conocimiento sería fabuloso, pero dada la naturaleza humana, lo más probable es que se utilice en beneficio de unos pocos, con el correspondiente daño (por acción u omisión) para otros muchos.

Pero hay dos problemas más que plantea Hinton: el primero es que las máquinas aprenden de las personas y cabe la posibilidad de que las personas estén equivocadas, luego entonces, el "razonamiento" de la máquina podría equivocarse, y sobre esa base, tomar decisiones que afecten terriblemente a la humanidad, sobre todo cuando la información tiene implicaciones morales o está impregnada de filosofías o ideologías perversas o equivocadas. Otra posibilidad es que la máquina genere respuestas inventadas e irreales, ya sea porque le falta información, o porque no comprende el trasfondo humano de los datos. El que una máquina procese información de una manera tan rápida y precisa, no significa que sus conclusiones sean correctas.

El segundo problema, que es posible que se alcance, es a una especie de autoconciencia. No pensamos que se llegue a un nivel completo de autoconciencia, tanto en el plano cognitivo como moral, pero sí se puede llegar a un nivel parecido, en el que la computadora adquiera la capacidad de auto dirigirse y de tomar decisiones que finalmente se dirijan contra sus creadores. Esto es lo que la ciencia ficción ha estado denunciando desde hace décadas, de la posibilidad de que las máquinas controlen al hombre.

Pero la pregunta más importante que tenemos que contestar, no se refiere al alcance que puede lograr la tecnología, sino a cómo es que esta tecnología nos puede ayudar a alcanzar el fin último. Porque lo importante no es que conozcamos miles de cosas, o que seamos capaces de producir sofisticadas herramientas, o hacer los procesos de manera automatizada; sino cómo es que la tecnología nos debe ayudar para alcanzar la salvación eterna. Y el camino que actualmente lleva el desarrollo tecnológico no está orientado al único fin que realmente importa. Porque, ya lo expresó claramente Nuestro Señor Jesucristo: "¿de qué le sirve al hombre el ganar todo el mundo, si pierde su alma? O ¿con qué cambio podrá el hombre rescatarla una vez perdida?" (Mt. 16, 26)


aborto