Evitar caer en el alarmismo y elaborar con urgencia un marco regulatorio es la receta que varios expertos aconsejaron a la Unión Europea ante el rápido desarrollo de la Inteligencia Artificial (IA), durante un encuentro celebrado en la ciudad italiana de Florencia.
«Espero que hayamos aprendido la lección y entendamos la cantidad de conflictos que se habrían evitado con las redes sociales si hubiéramos prestado atención antes. Ahora hay nuevas señales de advertencia», explicó a Efe Sandra Wachter, catedrática de la Universidad de Oxford en regulación tecnológica.
La experta, que ha asesorado a la instituciones europeas en asuntos como la conducción autónoma, considera que los Gobiernos aún «están a tiempo» de ajustar sus legislaciones a las herramientas de IA, cada vez más populares como ChatGPT, desarrollada por OpenAI.
«La tecnología y la ley deben evolucionar a la par -sostuvo-. La ley no puede quedarse atrás».
Wachter fue una de las participantes en un panel dedicado a los retos que plantea la Inteligencia Artificial en la conferencia «Estado de la Unión», que organiza anualmente el Instituto de la Universidad Europea (EUI).
La inclusión del debate en el programa, inmediatamente después del evento inaugural, demuestra para sus participantes la atronadora irrupción de esta tecnología en el debate público.
«Ahora hay mucho ruido y tendemos a fijarnos en los que más gritan. No podemos separar el mensaje del emisor, precisamente cuando algunas de las alarmas llegan de los mismos que venden o invierten cierto producto», subrayó Wachter.
Por ello, esta catedrática, cuya investigación se ha centrado en las implicaciones jurídicas y éticas de la IA, el Big Data y la robótica, pide diferenciar entre quienes solo «plantean riesgos» y quienes «aportan soluciones».
A su parecer, la carta en la que un millar de científicos y empresarios, entre ellos Elon Musk, uno de los fundadores de OpenAI, pidieron detener seis meses el desarrollo de ChatGPT para analizar el riesgo en la destrucción de empleo o desinformación esconde algo de «estrategia de marketing».
Así, recordó que las altas expectativas que no se cumplen del todo son comunes en el mundo tecnológico: «El ‘blockchain’ (cadena de bloques), las criptomonedas, el coche autónomo… todas parecían que iban a revolucionar el mundo y, más o menos, el mundo sigue siendo el mismo».
Un punto en el que coincidió Virginia Dignum, catedrática de Inteligencia Artificial por la Universidad sueca Umeå, quien se negó a firmar ese escrito cuando se le ofreció.
«Los humanos estamos desarrollando la IA y la tenemos bajo control. ChatGPT es un producto, no es algo que ha llegado del cielo y que ahora no sepamos qué hacer con ello», indicó la experta tras afirmar que a finales de los años 80 ya trabajaba en estas herramientas.
Jean-Marc Leclerc, encargado de asuntos gubernamentales de IBM, resumió el parecer sobre la mencionada misiva: «Está escrita como si los humanos quedáramos fuera de la foto. Creamos y controlamos estas máquinas y, por lo tanto, podemos abordar los retos».
Según los tres expertos, la Ley de IA (EU AI Act), que fue presentada en abril de 2021 y aún está pendiente de aprobación, sitúa a la Unión Europea en una posición puntera.
«Europa es muy proactiva a la hora de analizar riesgos, tomar lo bueno de la tecnología y asegurarse de que la gente no sale herida en el proceso», celebró Wachter.
En ese mismo foro, la vicepresidenta y ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, avanzó que durante la presidencia española del Consejo de la Unión Europea, el segundo semestre del año, se priorizará la regulación de la IA.
«Existen preocupaciones legítimas sobre el posible uso indebido, particularmente en áreas sensibles como la atención médica, las finanzas y la aplicación de la ley», señaló.
EFE