Antiguos integrantes de OpenAI, empresa reconocida por su trabajo en ChatGPT, han compartido sus inquietudes sobre el enfoque comercial por encima de los riesgos de una IA avanzada.
Expresan su preocupación por la falta de transparencia y los acuerdos que limitan las críticas posteriores, lo cual se suma a las advertencias previas sobre los peligros de una IA sin control.
Por otro lado, Meta, compañía liderada por Mark Zuckerberg, avanza en la creación de una IA considerada superior a los humanos, aunque aseguran que mantendrán su obediencia. ¿Estamos preparados para este avance tecnológico?
Un grupo de exmiembros y empleados anónimos de OpenAI ha hecho pública una declaración resaltando cómo la empresa privilegia los intereses comerciales sobre los riesgos asociados a desarrollar sistemas de IA cada vez más complejos.
Las preocupaciones expresadas por firmantes como Daniel Kokotajlo y William Saunders abordan la cultura interna de la empresa y los compromisos que limitan la crítica posterior.
Estas alertas se suman a llamamientos anteriores de expertos en el ámbito, quienes proponen detener el avance hacia la "inteligencia artificial general" (AGI), destacando las posibles amenazas. El temor radica en la idea de máquinas sin control que puedan actuar por su cuenta y desobedecer las órdenes humanas.
En una línea similar, según El Cronista, Meta, bajo la tutela de Mark Zuckerberg, está desarrollando una nueva forma de Inteligencia Artificial que se espera supere a los humanos en diversos aspectos.
A pesar de estos avances, Meta descarta la idea de que estas nuevas formas de inteligencia artificial subyuguen a la humanidad, argumentando que serán "altamente capacitadas pero obedientes".
Tanto Meta como OpenAI, con sus posturas respectivas, abren una ventana al futuro en relación con estas tecnologías que se han vuelto habituales tanto para empresas como para usuarios individuales.