Exempleados de OpenAI advierten sobre los peligros de una cultura imprudente en la empresa de Inteligencia Artificial

ElAvance | 05 junio 2024

Por Arturo López Valerio

Un grupo de exempleados y empleados actuales de OpenAI, la empresa detrás del popular chatbot ChatGPT, han alzado su voz para denunciar lo que describen como una cultura de imprudencia y secretismo en la compañía. Según reporta Kevin Rose del New York Times, este grupo afirma que OpenAI no está haciendo lo suficiente para prevenir que sus sistemas de Inteligencia Artificial se vuelvan peligrosos.

Daniel Kokotajlo, ex investigador de la división de gobernanza de OpenAI y uno de los organizadores del grupo, manifestó su preocupación: "OpenAI está realmente emocionado por construir A.G.I. (Inteligencia Artificial General), y están corriendo imprudentemente para ser los primeros en llegar. Los miembros del grupo sostienen que la empresa está priorizando las ganancias y el crecimiento en su carrera por desarrollar una IA capaz de realizar cualquier tarea que un ser humano pueda hacer.

Además, los exempleados alegan que OpenAI ha utilizado tácticas duras para silenciar a los trabajadores que expresan sus inquietudes sobre la tecnología, incluyendo la imposición de acuerdos de no desacreditación a los empleados salientes. En respuesta a estas acusaciones, la empresa ha afirmado estar orgullosa de su historial en proporcionar los sistemas de IA más capaces y seguros, y cree en su enfoque científico para abordar los riesgos

Sin embargo, las recientes salidas de dos destacados investigadores de IA, Ilya Sutskever y Jan Leike, han avivado aún más las preocupaciones sobre la seguridad en OpenAI. Leike, quien lideraba el equipo de "superalineación" enfocado en gestionar los riesgos de los modelos de IA potentes, declaró en su partida que "la cultura y los procesos de seguridad habían pasado a un segundo plano frente a productos llamativos".

En una carta abierta, el grupo de exempleados y empleados actuales pide a las principales empresas de IA, incluyendo OpenAI, que establezcan una mayor transparencia y protecciones para los denunciantes. Además, solicitan el fin del uso de acuerdos de no desacreditación y no divulgación, así como el apoyo a una cultura de crítica abierta y el establecimiento de un proceso de informes anónimos para que los empleados puedan plantear preocupaciones relacionadas con la seguridad.

Ante la importancia de esta tecnología, es crucial que las empresas de IA permitan a sus empleados discutir libremente los riesgos y posibles daños, sin temor a represalias. Como señala Lawrence Lessig, abogado pro-bono del grupo, "los empleados son una línea importante de defensa de la seguridad, y si no pueden hablar libremente sin represalias, ese canal se cerrará".

Las advertencias de este grupo de exempleados y empleados actuales de OpenAI no deben ser tomadas a la ligera. Es imperativo que las empresas de IA prioricen la seguridad y la transparencia en el desarrollo de esta poderosa tecnología, y que los legisladores regulen la industria para garantizar una estructura de gobernanza transparente y democráticamente responsable. 

Solo así podremos asegurarnos de que la Inteligencia Artificial se desarrolle de manera segura y beneficiosa para la humanidad.

0
Would love your thoughts, please comment.x
()
x