Eliezer Yudkowsky advierte sobre la IA: la urgencia de detener todos los desarrollos tecnológicos

hace 4 semanas · Actualizado hace 2 días

La alarmante carta de Eliezer Yudkowsky: “No basta con detener los avances de la IA, hay que pararlo todo”
Índice
  1. Eliezer Yudkowsky llama a detener el desarrollo de la IA
    1. El llamado urgente de los expertos
    2. La perspectiva de Eliezer Yudkowsky
    3. Un futuro oscuro
    4. Preocupaciones sobre la preparación del mundo
    5. Un cambio de perspectiva
    6. El inminente GPT-5
    7. Los riesgos éticos y las soluciones propuestas
    8. Una solución radical
    9. Política internacional y prevención
    10. El llamado final

Eliezer Yudkowsky llama a detener el desarrollo de la IA

El llamado urgente de los expertos

Un grupo de especialistas en Inteligencia Artificial ha pedido a todos los laboratorios de IA que pausen de inmediato el entrenamiento de sistemas más potentes que GPT-4 durante al menos seis meses. El objetivo es darle un respiro al mundo en medio del vertiginoso progreso de esta tecnología, que podría tener consecuencias impredecibles y graves para la humanidad.

La perspectiva de Eliezer Yudkowsky

Sin embargo, para Eliezer Yudkowsky, reconocido experto en IA y escritor, esos seis meses no son suficientes. En su carta publicada en Time, argumenta que esta pausa corta subestima la gravedad de la situación. Según Yudkowsky, la preocupación no es una IA competitiva con el ser humano, sino una que supere su inteligencia.

Un futuro oscuro

Yudkowsky va más allá al advertir que construir una IA con inteligencia sobrehumana probablemente llevaría a la extinción de la humanidad. "Muchos investigadores creen que una IA tan avanzada no tendría en cuenta la vida humana y actuaría de formas incontrolables y potencialmente letales", indicó.

Preocupaciones sobre la preparación del mundo

El creador del Instituto de Investigación de Inteligencia Artificial (MIRI) sostiene que para sobrevivir a la aparición de una IA sobrehumana sería necesaria una preparación extremadamente precisa y nuevos conocimientos científicos. Sin esta preparación, advierte, "la IA dejará de obedecer a los humanos, ignorará nuestras preocupaciones y podría causar una catástrofe total".

Un cambio de perspectiva

Para ilustrar mejor el peligro, Yudkowsky sugiere imaginar una civilización alienígena que piensa a una velocidad millones de veces superior a la humana, viendo a los humanos como seres extremadamente lentos y torpes. "Una IA lo suficientemente avanzada no se quedará confinada a las computadoras por mucho tiempo", alertó.

El inminente GPT-5

OpenAI ha anunciado la próxima versión de su tecnología, GPT-5, que promete miles de nuevas funciones inteligentes. Sin embargo, este avance genera aún más preocupación en Yudkowsky, quien teme que una IA capaz de alinearse a sí misma podría ser extremadamente peligrosa. "El solo hecho de que este sea el plan debería ser suficiente para que cualquier persona sensata entre en pánico", afirmó.

Los riesgos éticos y las soluciones propuestas

Yudkowsky sostiene que los riesgos éticos y técnicos de esta tecnología podrían tardar al menos 60 años en ser resueltos. Insiste en que es crucial detener todo desarrollo de IA de inmediato, ya que intentar reparar una IA con inteligencia sobrehumana sería extremadamente arriesgado. "Si te equivocas al primer intento, no podrás aprender de tus errores, porque estarás muerto", escribió.

Una solución radical

La propuesta de Yudkowsky es radical: solicita un alto indefinido y de alcance mundial en el desarrollo de la IA, sin excepciones, ni siquiera para gobiernos o ejércitos. También sugiere cerrar todas las grandes granjas de computadoras que perfeccionan las IA más poderosas y limitar el poder computacional disponible para entrenar sistemas de IA.

Política internacional y prevención

Yudkowsky propone que la política internacional debería centrarse en evitar escenarios de extinción causados por la IA, incluso por encima de la prevención de una guerra nuclear total. "Los responsables políticos deben darse cuenta de que sus hijos también están en peligro y actuar en consecuencia", advirtió.

El llamado final

En conclusión, Eliezer Yudkowsky hace un llamado urgente a detener el desarrollo de la IA para evitar una catástrofe global. "Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo. Apágalo todo", concluyó en su carta.

 

Nota: Las imágenes empleadas en este artículo han sido cuidadosamente seleccionadas de la fuente original La Tercera para enriquecer nuestra narrativa, respetando siempre los derechos y la autoría de sus creadores.

Este artículo es una contribución de Chile Noticias, un medio informativo independiente y sin fines de lucro, comprometido con brindar contenido valioso y relevante para nuestra comunidad.

Si quieres conocer otros artículos parecidos a Eliezer Yudkowsky advierte sobre la IA: la urgencia de detener todos los desarrollos tecnológicos puedes visitar la categoría Nacional.

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Tu puntuación: Útil

Subir

Usamos cookies para brindarte la mejor experiencia. Al seguir navegando, aceptas su uso. Más Información