OpenAI, en respuesta a preguntas de legisladores estadounidenses, dijo que está dedicada a garantizar que sus poderosas herramientas de inteligencia artificial no causen daño y que los empleados tengan formas de plantear inquietudes sobre las prácticas de seguridad.
La startup buscó tranquilizar a los legisladores sobre su compromiso con la seguridad después de que cinco senadores, incluido el senador Brian Schatz, un demócrata de Hawaii, plantearon preguntas sobre las políticas de OpenAI en una carta dirigida al director ejecutivo Sam Altman.
“Nuestra misión es garantizar que la inteligencia artificial beneficie a toda la humanidad, y estamos dedicados a implementar estrictos protocolos de seguridad en cada etapa de nuestro proceso”, dijo el director de estrategia Jason Kwon en una carta a los legisladores el miércoles.
Específicamente, OpenAI dijo que mantendrá su compromiso de asignar el 20% de sus recursos informáticos a investigaciones relacionadas con la seguridad durante varios años.
La empresa, en su carta, prometió que no haría cumplir los acuerdos de no menosprecio para los empleados actuales y anteriores, excepto en el caso específico de un acuerdo de no menosprecio mutuo. Los límites anteriores de OpenAI a la salida de empleados de la empresa han sido objeto de escrutinio por ser inusualmente restrictivos. Desde entonces, OpenAI ha dicho que ha cambiado su política.
Altman luego explicó la estrategia en las redes sociales.
Algunas actualizaciones rápidas sobre la seguridad de Openei:
Como dijimos en julio pasado, nos comprometemos a asignar al menos el 20 % de los recursos informáticos a los esfuerzos de seguridad de toda la empresa.
Nuestro equipo está trabajando en un acuerdo con el Instituto de Seguridad de IA de EE. UU. donde proporcionaremos…
—Sam Altman (@sama) 1 de agosto de 2024
“Nuestro equipo está trabajando en un acuerdo con el Instituto de Seguridad de IA de EE. UU. donde brindaremos acceso temprano a nuestro próximo modelo básico para que podamos trabajar juntos para avanzar en la ciencia de la evaluación de la IA”, escribió en X.
Kwon, en su carta, también mencionó la reciente creación de un comité de seguridad, que actualmente está revisando los procesos y políticas de OpenAI.
En los últimos meses, OpenAI se ha enfrentado a una serie de controversias sobre su compromiso con la seguridad y la capacidad de los empleados para pronunciarse al respecto. Varios miembros clave de su equipo relacionado con la seguridad renunciaron, incluido el ex cofundador y científico jefe Ilya Sutskever, otro líder del equipo de la compañía dedicado a la evaluación de riesgos de seguridad a largo plazo, Jan Lake, quien compartió públicamente su preocupación de que la compañía estuviera priorizando el producto. desarrollo sobre seguridad.
(A excepción del titular, esta historia no fue editada por el personal de NDTV y apareció en un canal sindicado).