Brian Hood descubrió un día que ChatGPT le atribuía un pasado criminal, pero para resolver este error, este político australiano indagó en un problema que plantea también un desafío para los ingenieros: cómo enseñar a la Inteligencia Artificial (IA) a borrar información errónea.
Hood intentó una solución convencional y amenazó con demandar por difamación a OpenAI, la empresa creadora de ChatGPT.
Pero entrenar a este tipo de robot es un proceso lento y costoso, por lo que este problema expone a la luz un desafío que será crucial en los próximos años, especialmente de cara a la reglamentación en la Unión Europea sobre protección de los datos personales.
Hood afirma que sus comunicaciones con OpenAI no fueron de gran ayuda, pero que sus quejas, que inundaron los medios, solucionaron el problema cuando la empresa actualizó la aplicación y el robot dejó de repetir estas afirmaciones falsas sobre sus antecedentes penales.
«Irónicamente, la gran cantidad de [información en] prensa sobre mi historia corrigió los registros», relató a AFP Hood, que es alcalde de la ciudad de Hepburn, en Australia.
La empresa OpenAI no respondió a las peticiones de comentarios sobre este tema.
«La capacidad de eliminar datos de las bases de datos de entrenamiento es un tema crítico de cara al futuro», señaló Lisa Given, de la Universidad RMIT de Melbourne, en Australia.
En el caso de los buscadores de internet, es posible borrar entradas, pero este proceso no es tan simple con los modelos basados en la IA.
En respuesta a este desafío, un grupo de científicos está estudiando un nuevo campo denominado el «desaprendizaje automático«, que trata de entrenar algoritmos para que «olviden» datos que sean problemáticos.
– «Una herramienta interesante» –
Un experto en este campo, Meghdad Kurmanji de la Universidad de Warwick en el Reino Unido, explicó a AFP que este tema comenzó a cobrar relevancia en los últimos tres o cuatro años.