Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos de la industria están pidiendo una pausa de seis meses en el desarrollo de sistemas más potentes que el recientemente lanzado GPT-4 de OpenAI, en una carta abierta que cita riesgos potenciales para la humanidad y sus generaciones venideras.
“Los potentes sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, dice la carta emitida por el Future of Life Institute.
“¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?… ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos?” preguntó la carta, diciendo que “tales decisiones no deben delegarse en líderes tecnológicos no elegidos”.
La organización sin fines de lucro está financiada principalmente por la Fundación Musk, así como por el grupo Founders Pledge con sede en Londres y la Fundación Comunitaria de Silicon Valley, de acuerdo al registro de transparencia de la Unión Europea citado por Reuters.
“La IA me estresa”, dijo a principios de este mes Musk, que casualmente es uno de los cofundadores del líder de la industria OpenAI. Además, cabe recordar que su fabricante de automóviles Tesla (TSLA.O) utiliza IA para un sistema de piloto automático.
A principios de este mes, OpenAI, respaldado por Microsoft, presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer), que cautivó a los usuarios al involucrarlos en conversaciones similares a las humanas, componiendo canciones y resumiendo documentos extensos, según consigna Reuters.
Críticas a Elon Musk luego de la carta emitida por expertos en IA
James Grimmelmann, profesor de derecho digital y de la información en la Universidad de Cornell, mostró su malestar por la carta a la que adhirió Musk.
“Es… profundamente hipócrita que Elon Musk se inscriba dado lo mucho que Tesla ha luchado contra la rendición de cuentas por la IA defectuosa en sus autos autónomos”, dijo Grimmelmann, durante un contacto con Reuters.
Y en la misma línea, agregó: “Una pausa es una buena idea, pero la carta es vaga y no toma en serio los problemas regulatorios”.
Qué otros expertos firmaron la carta del Future of Life Institute
La carta fue firmada por más de mil personas, incluido Musk.
Los cosignatarios incluyeron al CEO de Stability AI, Emad Mostaque, investigadores de DeepMind, propiedad de Alphabet, y los pesos pesados de AI Yoshua Bengio, a menudo denominado como uno de los “padrinos de IA”, y Stuart Russell, un pionero de la investigación en el campo.
Según informa Reuters, Sam Altman, director ejecutivo de OpenAI, no estaba entre los que firmaron la carta. Sundar Pichai y Satya Nadella, directores ejecutivos de Alphabet y Microsoft, tampoco estaban entre los que firmaron.
Las preocupaciones surgen cuando ChatGPT atrae la atención de los legisladores estadounidenses con preguntas sobre su impacto en la seguridad nacional y la educación. La fuerza policial de la Unión Europea, Europol, advirtió el lunes sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia.
LEER MÁS: Desastre en Mississippi: Al menos 25 muertos por tornados devastadores – VIDEOS