🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Un grupo de expertos en tecnología de todo el mundo ha advertido de que la tecnología de inteligencia artificial debería considerarse un riesgo para la sociedad y tener la misma prioridad que las pandemias y las guerras nucleares.
La declaración, firmada por cientos de ejecutivos y académicos, fue publicada el martes por el Centro para la Seguridad de la IA en medio de la creciente preocupación por la regulación y los riesgos que la tecnología plantea para la humanidad.
«Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y las guerras nucleares», dice la declaración. Entre los firmantes figuran los directores ejecutivos de DeepMind, de Google, OpenAI, de ChatGPT, y Anthropic, de AI.
Líderes mundiales y expertos del sector, como los dirigentes de OpenAI, han pedido que se regule la tecnología por el temor a que pueda afectar significativamente a los mercados laborales, perjudicar la salud de millones de personas y convertirse en arma de desinformación, discriminación y suplantación de identidad.
Este mes, Geoffrey Hinton, a menudo considerado el padrino de la IA y también uno de los firmantes, abandonó Google alegando su «riesgo existencial».
Los llamamientos para frenar las amenazas se producen tras el éxito de ChatGPT, que se lanzó en noviembre. El modelo lingüístico ha sido ampliamente adoptado por millones de personas y ha avanzado rápidamente más allá de las predicciones de los mejor informados del sector.