La regulación de las inteligencias artificiales no está llegando todo lo rápido que deben. Incluso si la lerdocracia de la Unión Europea se pone medallas por ser la primera en regular las IA en su territorio, casi es una declaración de intenciones y no algo que vaya a la raíz del problema, entre lo cual está el entrenamiento de las IA con material protegido por derechos de autor. Al otro lado del charco, en EUA, la situación es que no parece que Biden quiera regularla, por lo que las empresas como The New York Times están recurriendo a los tribunales. En este caso, no solo porque ChatGPT/Copilot quiebren sus derechos de autor, sino también por desinformar, mentir y perjudicar la reputación del rotativo.
El New York Times ha presentado en la demanda una serie de informaciones extraídas de Copilot, que usa GPT al igual que ChatGPT, que muestran que OpenAI está entrenando a su IA generativa con información del periódico que además está detrás de un muro de pago. Además considera que el que Copilot suelte párrafos íntegros del New York Times viola lo que es el uso justo de contenido protegido por derechos de autor. Le quita visitas a la web del periódico y por tanto la causa un perjuicio económico.
En cuanto a los daños a la reputación, pone ejemplos concretos. Por ejemplo, que el modelo GPT se ha inventado artículos que no existen en la web del New York Times, como por ejemplo uno cuyo título rezaba Un estudio vincula el zumo de naranja con el linfoma no Hodgkin, lo cual a la postre puede producir problemas de salud en los que lean la información y se la crean. También, al ser preguntado por alimentos sanos de los que se hablaba en un artículo del periódico, GPT (ChatGPT/Copilot) se inventó un listado del que el 80 % no estaba en el artículo al que hacía referencia del NYT. En otro caso, se inventó productos recomendados por The Wirecutter, el suplemento de tecnología del New York Times, que ni siquiera habían sido analizados.
En la situación actual, las inteligencias artificiales generativas son útiles si los usuarios tienen ganas de contrastar la información. Antes le había preguntado a Bard cuáles eran los periódicos más antiguos de EUA, y me aseguró que The Philadelphia Inquirer se inauguró en 1784 cuando en realidad fue en 1829. Son útiles, pero necesitan mejorar mucho porque cometen muchos errores. Pero en ningún caso pueden estar siendo entrenadas con contenido protegido por derechos de autor sin pagar por ello. Una IA no es capaz de inventar, solo de usar lo que conoce para crear contenido nuevo semejante. Es como cuando en la universidad copias un trabajo a un compañero, que vas cambiando frases y párrafos de orden, pero el trabajo sigue siendo el mismo. Pero que se invente cosas, o incuso artículos enteros que no los ha publicado el periódico que dice, es un gran problema para los inexpertos en un tema.
Vía: Ars Technica.