OpenAI reúne expertos para evitar la aniquilación de la humanidad a manos de la IA

🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]

OpenAI ha reunido un equipo con el objetivo de evitar un cataclismo de la inteligencia artificial (IA), ya que la organización está preocupada por la posible aniquilación de la humanidad causada por IA.

Según OpenAI, la IA posee la capacidad de evolucionar hacia la superinteligencia, lo que puede representar el salto tecnológico más trascendental jamás logrado por la humanidad, facilitando soluciones a dilemas globales fundamentales.

Entrada Relacionada

Sin embargo, Ilya Sutskever y Jan Leike, de OpenAI, advierten de que los humanos están mal equipados para enfrentarse a una tecnología que supera sus propias capacidades cognitivas.

El equipo de OpenAI reconoce el peligro inminente de una IA superinteligente y admite que actualmente carecen de una solución para controlar o redirigir su conducta. Las metodologías existentes para alinear la IA, como el aprendizaje por refuerzo a partir de la retroalimentación humana, dependen de la supervisión humana. Sin embargo, a medida que los sistemas de IA superan a los humanos en inteligencia, esta supervisión se vuelve poco fiable.

Sutskever, cofundador y director científico de OpenAI, y Leike, jefe del departamento de alineación de OpenAI, están creando un grupo de investigadores e ingenieros encargados de superar los obstáculos técnicos que plantea la superinteligencia. Han fijado un plazo de cuatro años para que el equipo alcance este objetivo.

Aunque la perspectiva de la desaparición de la humanidad es alarmante, los líderes de OpenAI mantienen una visión optimista sobre el descubrimiento de una solución. Creen firmemente que, con esfuerzos concentrados y concertados, la situación puede resolverse.

Sutskever y Leike subrayan su inquebrantable dedicación a difundir ampliamente los resultados de su trabajo. OpenAI está reclutando activamente a ingenieros de investigación, científicos y gestores que tengan interés en evitar el dominio o la erradicación de la humanidad por la IA.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más