🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Desde que ChatGPT irrumpió en escena hace seis meses, el experto Gary Marcus ha expresado su cautela ante el desarrollo y la adopción ultrarrápidos de la inteligencia artificial.
Pero frente a los agoreros que presagian la extinción de la humanidad a manos de la IA, el profesor emérito de la Universidad de Nueva York ha dicho en una entrevista reciente que las amenazas existenciales de la tecnología son actualmente «exageradas».
«Personalmente no estoy tan preocupado por el riesgo de extinción, al menos por ahora, porque los escenarios no son tan concretos«, dijo Marcus en San Francisco. «Un problema más general que me preocupa… es que estamos construyendo sistemas de IA sobre los que no tenemos muy buen control y creo que eso plantea muchos riesgos, (pero) quizá no literalmente existenciales».
En marzo, alarmado porque OpenAI, creador de ChatGPT, iba a lanzar su último y más potente modelo de IA con Microsoft, Marcus firmó una carta abierta con más de 1.000 personas, entre ellas Elon Musk, en la que pedía una pausa mundial en el desarrollo de la IA.
Pero la semana pasada no firmó la declaración más sucinta de líderes empresariales y especialistas — incluido el jefe de OpenAI, Sam Altman — que causó tanto revuelo. Los firmantes insistieron en que los líderes mundiales deberían trabajar para reducir «el riesgo de extinción» de la tecnología de inteligencia artificial.
«Si realmente crees que existe un riesgo existencial, ¿por qué estás trabajando en esto? Es una pregunta bastante sensata», afirma Marcus.
En lugar de centrar la atención en escenarios más inverosímiles en los que nadie sobrevive, la sociedad debería centrarla en los peligros reales, conjetura Marcus.
«La gente podría intentar manipular los mercados utilizando la IA para causar todo tipo de caos y luego podríamos, por ejemplo, culpar a los rusos y decir: ‘mirad lo que han hecho a nuestro país’, cuando en realidad los rusos no estaban implicados», continuó. «Podría producirse una escalada que acabara en una guerra nuclear o algo parecido. Así que creo que hay escenarios en los que era bastante serio. ¿Extinción? No lo sé».
A corto plazo, el experto en psicología está preocupado por la democracia. El software de IA generativa produce fotografías falsas cada vez más convincentes, y pronto vídeos, a bajo coste. También se podrían generar campañas políticas orquestadas por una IA.
Como resultado, «las elecciones van a ser ganadas por personas que son mejores difundiendo desinformación, y esas personas pueden cambiar las reglas y hacer realmente difícil que la democracia siga adelante».
Además, «la democracia se basa en disponer de información razonable y tomar buenas decisiones. Si nadie sabe qué creer, ¿cómo se puede seguir adelante con la democracia?».
Sin embargo, el autor del libro «Rebooting AI» no cree que debamos abandonar la esperanza, pues sigue viendo «muchas ventajas». Existe la posibilidad de que la IA aún no inventada pueda «ayudar con la ciencia, con la medicina, con el cuidado de ancianos», dijo Marcus.
«Pero a corto plazo, creo que no estamos preparados. Se van a producir algunos daños por el camino y tenemos que ponernos las pilas, tenemos que pensar en una regulación seria», afirmó.
En una comparecencia ante el Senado estadounidense en mayo, sentado junto a Altman, de OpenAI, Marcus abogó por la creación de una agencia nacional o internacional responsable de la gobernanza de la IA. La idea también cuenta con el respaldo de Altman, que acaba de regresar de una gira europea en la que ha instado a los líderes políticos a encontrar el «equilibrio adecuado» entre seguridad e innovación.