20-05-2024

Dos de los principales cofundadores de OpenAI —el director ejecutivo de la desarrolladora de ChatGPT, Sam Altman, y su presidente, Greg Brockman— están tratando de apaciguar las aguas tras la reorganización que sufrió el departamento de seguridad de la empresa de inteligencia artificial la semana pasada.


El científico jefe de OpenAI (que también figuraba como cofundador de la startup), Ilya Sutskever, anunció que se marchaba el pasado martes a través de una publicación en X (la red social anteriormente conocida como Twitter). Horas más tarde, su compañero de departamento, Jan Leike, seguía los pasos de Sutskever.


Sutskever y Leike dirigían el equipo de superalineación de OpenAI, un departamento centrado en desarrollar sistemas de IA compatibles con los intereses humanos. Eso a veces les colocaba en una posición contraria a la de los intereses de los miembros de la dirección de su propia compañía, que abogaban por un desarrollo de la inteligencia artificial más agresivo.


"He estado en desacuerdo con la dirección de OpenAI sobre las prioridades básicas de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura", afirmó Leike este viernes, a través de una publicación en su cuenta de X.


Por su parte, Sutskever fue uno de los seis miembros del consejo que intentaron destituir a Altman como CEO el pasado mes de noviembre, aunque más tarde aseguró que se arrepentía de haberlo intentado.


Tras las salidas de los dos responsables de seguridad de OpenAI, Altman calificó a Sutskever como "una de las mentes más brillantes de nuestra generación" y dijo estar "súper agradecido" por las contribuciones de Leike. También reconoció que Leike tenía razón: "Tenemos mucho más que hacer; estamos comprometidos a hacerlo".


Sin embargo, a medida que la preocupación social con respecto a la seguridad de la tecnología de OpenAI seguía aumentando, Brockman ofreció más detalles sobre cómo va a abordar la seguridad y el riesgo en el futuro la desarrolladora de ChatGPT, especialmente a medida que desarrolle la IA general y cree sistemas que sean más avanzados que los chatbots actuales.


En una publicación de casi 500 palabras firmada tanto por Altman como por el presidente de OpenAI, Brockman abordó las medidas que ya ha tomado la startup de inteligencia artificial para velar por la seguridad en el desarrollo y el despliegue de esta tecnología.


"Hemos demostrado repetidamente las increíbles posibilidades de ampliar el deep learning y hemos analizado sus implicaciones; hemos pedido una gobernanza internacional de la IAG antes de que tales llamamientos fuesen habituales; y hemos ayudado a ser pioneros en la ciencia de la evaluación de los sistemas de inteligencia artificial para riesgos catastróficos", detalló el presidente de OpenAI.


Altman declaró recientemente que la mejor forma de regular la IA sería a través de la constitución de una agencia internacional que garantice unas pruebas de seguridad razonables, pero también se mostró cauteloso ante la regulación por parte de legisladores gubernamentales, que podrían no entender del todo la tecnología.


Por su parte, Brockman ha señalado que OpenAI también ha sentado las bases para el despliegue seguro de sistemas de inteligencia artificial más avanzados que GPT-4, el modelo de IA que se esconde detrás de ChatGPT.


"A pesar de que avanzamos en esa dirección, todavía no estamos seguros de cuándo alcanzaremos nuestro listón de seguridad para los despliegues y no pasa nada si eso retrasa los plazos de lanzamiento", apuntó el presidente de OpenAI este sábado, refiriéndose a la publicación de modelos de inteligencia artificial como el que su propia compañía presentó recientemente, el GPT-4o.


Brockman y Altman añadieron en su publicación conjunta que la mejor manera de anticiparse a las amenazas es mediante un "bucle de retroalimentación muy estrecho, pruebas rigurosas, consideración cuidadosa en cada paso, seguridad de primera clase y armonía de seguridad y capacidades", así como colaborando con "gobiernos y partes interesadas en la seguridad".


Aun así, no todo el mundo está convencido de que el equipo de OpenAI esté avanzando en el desarrollo de una forma que garantice la seguridad de los seres humanos y menos aún, al parecer, las personas que hasta hace unos días dirigían los esfuerzos de la empresa que iban en esa dirección.


"Estos problemas son bastante difíciles de solucionar y me preocupa que no estemos en la trayectoria adecuada para conseguirlo", comentó Leike, el antiguo responsable de seguridad de la startup, con respecto a esta cuestión.


Actualidad Laboral / Con información de Business Insider