El CEO de OpenAI, Sam Altman, ha sido acusado de ser poco transparente sobre los esfuerzos de seguridad de la empresa. Según un artículo de Ars Technica, Altman ha sido criticado por no proporcionar suficiente información sobre los protocolos de seguridad de OpenAI y por utilizar cláusulas de no divulgación (NDAs) para silenciar a los empleados que expresan sus preocupaciones sobre la seguridad.
En respuesta a estas críticas, Altman ha afirmado que OpenAI ha tomado medidas para aumentar la transparencia, como trabajar con el Instituto de Seguridad de la Inteligencia Artificial de EE. UU. (US AI Safety Institute) para proporcionar acceso anticipado a su próximo modelo de inteligencia artificial. Sin embargo, algunos expertos y empleados antiguos de la empresa han cuestionado la efectividad de estas medidas y han expresado preocupaciones sobre la priorización de la seguridad en OpenAI.
Recientemente, cinco senadores de EE. UU. escribieron a Altman para cuestionar el compromiso de OpenAI con la seguridad y para expresar su preocupación sobre posibles represalias contra empleados que han hablado públicamente sobre sus preocupaciones. En respuesta, Altman ha afirmado que la empresa está comprometida con la seguridad y que ha eliminado la cláusula de no divulgación de su contrato laboral.
Además, OpenAI ha anunciado la formación de un comité de seguridad y seguridad para evaluar y desarrollar los procesos y salvaguardas de la empresa. El comité tendrá como primera tarea evaluar y desarrollar los procesos y salvaguardas de OpenAI durante los próximos 90 días.
En cuanto a la seguridad del próximo modelo de inteligencia artificial de OpenAI, Altman ha afirmado que la empresa proporcionará acceso anticipado al modelo al gobierno de EE. UU. para que se realicen comprobaciones de seguridad. Esto ha sido visto como un paso positivo hacia la transparencia y la seguridad en el desarrollo de la inteligencia artificial.
En resumen, aunque OpenAI ha tomado medidas para aumentar la transparencia y la seguridad, todavía existen preocupaciones sobre la efectividad de estas medidas y la priorización de la seguridad en la empresa. La formación del comité de seguridad y seguridad y la provisión de acceso anticipado al modelo de inteligencia artificial al gobierno de EE. UU. son pasos positivos, pero es importante que OpenAI siga trabajando para abordar las preocupaciones sobre la seguridad y la transparencia.
Fuentes:
- “Sam Altman acusado de ser poco transparente sobre los esfuerzos de seguridad de OpenAI” – Ars Technica (https://arstechnica.com/tech-policy/2024/08/sam-altman-accused-of-being-shady-about-openais-safety-efforts/)
- “OpenAI forma comité de seguridad y seguridad” – OpenAI (https://openai.com/blog/openai-board-forms-safety-and-security-committee/)
- “Sam Altman: El próximo modelo de OpenAI será sometido a comprobaciones de seguridad por el gobierno de EE. UU.” – VentureBeat (https://venturebeat.com/2024/08/06/sam-altman-next-openai-model-will-first-undergo-safety-checks-by-u-s-government/)
- “Sam Altman prioriza los procesos y la cultura de seguridad en OpenAI” – Windows Central (https://www.windowscentral.com/sam-altman-prioritizes-safety-processes-and-culture-at-openai)
Artículo redactado con asistencia de diversas inteligencias artificiales generativas con supervisión humana (redacción AD).