La Inteligencia Artificial representa un “riesgo existencial para la humanidad”, afirman expertos
Cientos de líderes tecnológicos hacen un llamado para tratar a la Inteligencia Artificial como un potencial peligro para la humanidad, a la par con las pandemias y la guerra nuclear.
Un grupo de destacados expertos en tecnología de todo el mundo advirtió que la tecnología de inteligencia artificial debe considerarse un riesgo social y priorizarse al mismo nivel que las pandemias y las guerras nucleares.
La declaración, firmada por cientos de ejecutivos y académicos, fue emitida por el Centro para la Seguridad de la IA el martes 30 de mayo en medio de crecientes preocupaciones sobre la regulación y los riesgos que la tecnología representa para la humanidad.
“Mitigar el riesgo de extinción que genera la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, se leía en el comunicado. Los firmantes de la declaración incluyeron a los directores ejecutivos de DeepMind de Google, el desarrollador de ChatGPT OpenAI y la startup de IA Anthropic.
Los líderes mundiales y los expertos de la industria, como los líderes de OpenAI, han pedido la regulación de la tecnología debido a los temores existenciales de que podría afectar significativamente los mercados laborales, dañar la salud de millones y convertir la desinformación, la discriminación y la suplantación de identidad en armas.
Este mes, el hombre a menudo promocionado como el padrino de la IA, Geoffrey Hinton, también firmante de la declaración, renunció a Google citando su “riesgo existencial”. El primer ministro del Reino Unido se hizo eco de estas preocupaciones y reconoció el riesgo la semana pasada por primera vez: un cambio rápido de rumbo dentro del gobierno del Reino Unido que se produjo dos meses después de la publicación de un libro blanco de IA que las cifras de la industria advirtieron que ya está desactualizado.
Si bien la carta publicada el martes no es la primera, es potencialmente la más impactante dada su gama más amplia de firmantes y dada su principal preocupación existencial, según Michael Osborne, profesor de aprendizaje automático en la Universidad de Oxford y cofundador de Mind Foundry.
“Realmente es notable que tanta gente haya suscrito esta carta”, dijo Osborne. “Eso demuestra que hay una creciente comprensión entre los que trabajamos en IA de que los riesgos existenciales son una preocupación real”.
El potencial de AI para exacerbar los riesgos existenciales existentes, como las pandemias diseñadas y las carreras armamentistas militares, son preocupaciones que llevaron a Osborne a firmar la carta pública, junto con las nuevas amenazas existenciales adicionales de la Inteligencia Artificial.
Los llamados para frenar las amenazas se producen después del éxito de ChatGPT, que se lanzó en noviembre. El modelo de lenguaje ha sido ampliamente adoptado por millones de personas y ha avanzado rápidamente más allá de las predicciones de los mejor informados de la industria.
Osborne dijo: “Debido a que no entendemos muy bien la IA, existe la posibilidad de que pueda desempeñar un papel como una especie de nuevo organismo competidor en el planeta, por lo que es un tipo de especie invasora que hemos diseñado que podría desempeñar un papel devastador en nuestra supervivencia como especie”.
Con información de The Guardian.