🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Recientemente, se ha dado a conocer un incidente curioso entre dos gigantes de la inteligencia artificial que plantea cuestiones sobre la seguridad en el desarrollo de esta tecnología.
Un rival de OpenAI hizo una broma a la startup de IA al enviar miles de clips con la forma del distintivo logo en espiral de OpenAI a sus oficinas en San Francisco.
El envío, realizado por un empleado de la empresa rival Anthropic, fue interpretado como una sutil burla insinuando que el enfoque de OpenAI hacia la seguridad en la IA podría llevar a la extinción de la humanidad.
Estos clips fueron una referencia al famoso escenario del «maximizador de clips de papel», un experimento mental propuesto por el filósofo Nick Bostrom. En este escenario se plantea que una IA encargada únicamente de producir la mayor cantidad de clips de papel podría, de manera inadvertida, erradicar a la raza humana para cumplir con su objetivo.
Bostrom advierte: «Debemos ser cuidadosos con lo que deseamos de una superinteligencia, porque podríamos obtenerlo.»
Anthropic, fundada por ex empleados de OpenAI que abandonaron la empresa en 2021 debido a discrepancias sobre el desarrollo seguro de la IA, es un testimonio de las divergencias en la comunidad sobre cómo abordar estos avances tecnológicos.
Mientras tanto, OpenAI ha acelerado rápidamente sus ofertas comerciales, lanzando ChatGPT el año pasado con un éxito sin precedentes y cerrando un acuerdo de inversión multimillonario con Microsoft en enero.
Sin embargo, preocupaciones sobre la seguridad en la IA han vuelto para atormentar a la compañía en las últimas semanas, con el caótico despido y posterior reintegración del CEO Sam Altman.
Se ha especulado que preocupaciones sobre la rapidez del desarrollo de la IA dentro de la empresa y el temor a que esto acelere la llegada de una IA superinteligente que podría amenazar a la humanidad fueron razones por las cuales la junta de OpenAI decidió despedir a Altman.
El científico jefe de OpenAI, Ilya Sutskever, quien participó en el golpe de la junta contra Altman antes de unirse a las peticiones para su readmisión, ha expresado preocupaciones sobre los riesgos existenciales que la inteligencia artificial general podría plantear para la humanidad, y supuestamente tuvo desacuerdos con Altman sobre este tema.