🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
En una comparecencia ante el Congreso de los EE.UU., Sam Altman, consejero delegado de OpenAI, recordó los peligros de la tecnología que su empresa ha ayudado a difundir entre el público. La IA podría «causar un daño significativo al mundo», afirmó.
Advirtió de las posibles campañas de desinformación y manipulación que podrían provocar tecnologías como el chatbot ChatGPT de la empresa, e hizo un llamamiento a la regulación.
El testimonio de Altman se produce en un momento en el que el debate sobre si la inteligencia artificial podría invadir el mundo está dejando de ser ciencia ficción para convertirse en la corriente dominante, dividiendo a Silicon Valley, incluyendo a las personas que trabajan en estas tecnologías.
La creencia de que las máquinas podrían superar el nivel de inteligencia humana y decidir destruir a la humanidad están ganando adeptos. Algunos de los científicos más respetados del sector están acelerando sus propias previsiones sobre cuándo creen que los ordenadores podrían ser más inteligentes que los humanos y volverse manipuladores.
Muchos investigadores e ingenieros afirman que la preocupación por las IA asesinas que evocan a Skynet en las películas de Terminator no se basa en la ciencia. Por el contrario, distraen la atención de los problemas reales que la tecnología ya está causando, incluidos los problemas que Altman describió en su testimonio.
El debate sobre la IA «maligna» se ha intensificado a medida que Google, Microsoft y OpenAI lanzan versiones públicas de tecnologías capaces de entablar conversaciones complejas y crear imágenes a partir de simples mensajes de texto.
«Esto no es ciencia ficción», afirma Geoffrey Hinton, conocido como el padrino de la IA, quien dice haberse retirado recientemente de su trabajo en Google para hablar con más libertad sobre estos riesgos. Ahora dice que una IA más inteligente que los humanos podría estar aquí en un plazo de cinco a 20 años, frente a su estimación anterior de 30 a 100 años.
«Es como si los extraterrestres hubieran aterrizado o estuvieran a punto de hacerlo», afirma. «Realmente no podemos asimilarlo porque hablan bien inglés y son muy útiles, pueden escribir poesía, pueden contestar cartas aburridas. Pero en realidad son extraterrestres».
Geoffrey Hinton
Los riesgos actuales de las IA incluyen la liberación de bots entrenados con información racista y sexista de la web, reforzando esas ideas. La inmensa mayoría de los datos de entrenamiento de los que han aprendido las IA están escritos en inglés y proceden de Norteamérica o Europa, lo que puede hacer que Internet se distancie aún más de las lenguas y culturas de la mayor parte de la humanidad.
Los bots también inventan a menudo información falsa, haciéndola pasar por real. En algunos casos, han sido empujados a bucles de conversación en los que adoptan conductas hostiles. Los efectos de esta tecnología aún no están claros, y sectores enteros se preparan para sufrir alteraciones, como la sustitución de puestos de trabajo muy bien remunerados.
«Hay un grupo de personas que lo ven como: ‘Mira, son sólo algoritmos. Sólo repiten lo que han visto en Internet. Luego está la visión en la que estos algoritmos están mostrando propiedades emergentes, para ser creativos, para razonar, para planificar», dijo el CEO de Google, Sundar Pichai, durante una entrevista con «60 Minutes» en abril. «Tenemos que abordar esto con humildad».
Sundar Pichai
El debate tiene su origen en los avances de la última década en un campo de la informática llamado aprendizaje automático, que ha creado software capaz de extraer nuevas ideas de grandes cantidades de datos sin instrucciones explícitas de los humanos. Esta tecnología es ahora omnipresente y ayuda a impulsar algoritmos de redes sociales, motores de búsqueda y programas de reconocimiento de imágenes.
Elon Musk, que ayudó a iniciar OpenAI, está ocupado tratando de crear su propia empresa de IA. Musk lleva años manifestando su creencia de que los humanos deben tener cuidado con las consecuencias del desarrollo de una IA superinteligente.