Nadie sabe a ciencia cierta los problemas que van a acarrear las inteligencias artificiales avanzadas que empezaron a llegar hace apenas seis meses, pero incluso sus creadores están pidiendo que se regulen. Los que no piden que se regulen son los que no entienden su potencial dañino pero sí ven los pingües beneficios que les va a proporcionar De ello ha hablado Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, en una comparecencia ante el subcomité judicial del Senado de los EUA.
Altman ha dicho que «si algo de esta tecnología sale mal, irá realmente mal, y queremos ser claros al respecto. Queremos trabajar con el Gobierno para prevenir que eso ocurra». Pero en este caso ha querido recalcar que lo acota a las inteligencias artificiales avanzadas como las usadas por su ChatGPT o la Bard de Google. En otro caso, los requisitos regulatorios para las IA menos avanzadas deberían ser más laxos para no perjudicar a las empresas y a los investigadores. O sea, se debería crear un listado de acciones por las cuales una IA debería estar en un grupo regulatorio u otro.
Microsoft no quiere oír hablar de regulación hasta que muera gente, por aquello de que les hará perder dinero, mientras que uno de los padres de la revolución de las IA que abandonó recientemente Google piensa lo mismo que Altman: se precisa regularlas cuanto antes. El próximo año habrá una campaña electoral en los EUA, y a la velocidad a la que están evolucionando las IA el peligro de que influyan en la campaña es muy grande como para dejarlas sin regular, según Altman.
Altman cree que las IA deberían ser auditadas durante el proceso de concesión de licencia para conocer los límites de sus capacidades y ponerlas en uno de los grupos de licencia. Las problemáticas serían, por ejemplo, aquellas que pudieran manipular o influir sobre las conductas de las personas, o las que pudieran crear nuevos agentes biológicos. No sería lógico centrarse para las licencias en el poder de computación necesario de las redes neuronales que usan.
IBM se ha alineado con OpenAI y ha pedido que se regulen las inteligencias artificiales cuanto antes. «La era de las IA no puede ser otra era de avanzar rápido rompiendo cosas». Pide una legislación que haga claramente responsables a las empresas que usan las IA de los malos usos que se les dé. Por ejemplo, difundir bulos o interferir en procesos electorales.
Se alinea en la opinión de que la carga debería estar en las grandes compañías que desarrollan las IA y no en las pequeñas. «Deberíamos restringir o prohibir el uso de IA en ciertos terrenos, por ejemplo en los anuncios que se entrometen en la privacidad de las personas y las decisiones que afectan a su bienestar», ha dicho Christina Montgomery, directora de privacidad y confianza en IBM.
La Unión Europea está pendiente de aprobar en las próximas semanas un borrador de ley que intenta atajar estos y otros problemas, por lo que la regulación de las IA va a llegar más pronto que tarde. Por una vez, puede que los políticos hagan las cosas bien.
Vía: Ars Technica.