19-05-2023
Apenas un día después de lanzarse la aplicación de ChatGPT para iOS, se conoce que Apple ha restringido el uso de este chatbot y otras herramientas de inteligencia artificial, para algunos de sus empleados. La compañía tecnológica ha tomado esta medida, motivada por la misma preocupación que ha provocado que países como Italia, Alemania y España; inicien investigaciones sobre el uso de los datos privados, a los que tienen acceso estas herramientas como la creada por OpenAI.

Según un documento revisado por The Wall Street Journal, Apple está desarrollando su propia tecnología similar a la que nutre a ChatGPT. Un trabajo de investigación y desarrollo que potenciaría sus servicios como Siri, pero que por ahora es confidencial, y debe protegerse de la competencia. Este sería el principal motivo por el que el chatbot de OpenAI, ha sido restringido en las oficinas de Apple, así como Copilot de GitHub, propiedad de Microsoft.

Mientras que Copilot se ha entrenado para generar código informático a partir de texto, ChatGPT puede realizar esta tarea; además de escribir como si fuera un humano, en múltiples estilos y sobre diversos temas. Incluso, su última versión multimodal reconoce imágenes, y crea contenido partiendo de ellas.

Sin embargo, esta revolución tecnológica que se está viviendo en todo el mundo, con el rápido crecimiento de la llamada inteligencia artificial generativa; ha generado una importante carrera comercial. Todas las grandes compañías quieren participar en este mercado al alza, hasta quienes alertan de su potencial riesgo como Elon Musk. Y, por consiguiente, surgen dudas sobre las posibles consecuencias negativas de la misma.

Uso de los datos



Entre los riesgos que se atribuyen a esta tecnología, la falta de protección de los datos es uno de ellos. Italia fue el primer país en tomar una decisión contundente, prohibiendo el uso de ChatGPT tras una filtración de los datos de los usuarios. La plataforma de Open AI está siendo investigada, por posible violación de la ley europea de protección de datos, GDPR.

Cuando las personas entran en estos chatbots para conversar, o solicitar ayuda con algún ensayo o trabajo; algunos hasta escriben sus correos con estos modelos de IA. Los datos de la conversación se reutilizan para seguir entrenando al modelo de lenguaje natural en el que se basan. La filtración antes mencionada, dejó a la vista los títulos del historial de chat de algunos usuarios.

.

Actualidad Laboral / Con información de Omicrono by El Español