Eliezer Yudkowsky es un teórico de decisión de los EE.UU. y dirige el Instituto de Investigación de Inteligencia de Máquinas. Ha estado trabajando en la alineación de la Inteligencia General Artificial desde 2001 y es ampliamente considerado como uno de los fundadores del campo.

Resumen (Hecho por ChatGPT)

Traducción completa

Una carta abierta publicada hoy pide que "todos los laboratorios de IA pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4".

Esta moratoria de 6 meses sería mejor que ninguna moratoria. Tengo respeto por todos los que dieron un paso al frente y lo firmaron. Es una mejora en el margen.

Me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverla.

El tema clave no es la inteligencia “competitiva humana” (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana. Los umbrales clave allí pueden no ser obvios, definitivamente no podemos calcular de antemano qué sucede y cuándo, y actualmente parece imaginable que un laboratorio de investigación cruzaría líneas críticas sin darse cuenta.

Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán.