¿Cómo la inteligencia artificial está tomando protagonismo en la Unión Europea?

Creo que todos, o casi todos, nos cuestionamos si la inteligencia artificial

(IA) es una decisión acertada que está tomando la humanidad, ya que

naturalmente nos hace dudar si debemos depositar nuestra confianza en

esta nueva tecnología.

La ley de Moore, que afirma que la velocidad de los ordenadores se duplica

cada dos años, ha quedado obsoleta, ya que el crecimiento en el

entrenamiento de la inteligencia artificial ha superado esta ley en más de

cien millones de veces. Esto ha preocupado a expertos como Elon Musk y

Steve Wozniak, quienes han firmado una carta abierta instando a todos los

laboratorios de IA a pausar inmediatamente durante al menos seis meses el entrenamiento de los sistemas de IA.

Nick Bostrom, profesor de Éticas Aplicadas y director del Instituto para el

Futuro de la Humanidad, asegura que la IA se convertirá en una

superinteligencia en las próximas décadas o en el próximo siglo. Por lo

tanto, la humanidad se enfrenta a uno de sus mayores desafíos, ya que la tecnología no tiene ética, pero la humanidad depende de ella, dijo Rebeca

Yanke, periodista del diario El Mundo.

Desde 2017, la Comisión Europea ha afirmado que a largo plazo la

inteligencia artificial superará la capacidad intelectual, por lo que ha

propuesto un conjunto de acciones y normas para impulsarla y garantizar su

fiabilidad. La legislación propuesta, conocida como la Ley de Inteligencia

Artificial, se centra en fortalecer la calidad, transparencia, responsabilidad,

ética y supervisión humana en esta nueva industria.

Dado que la IA es un territorio nuevo en rápido crecimiento y poco

explorado, existen muchos riesgos en materia de autoría, propiedad

intelectual, privacidad y protección de datos, incluso amenazando a los

ciudadanos.

Con el fin de generar confianza hacia la IA, la Comisión Europea ha

clasificado diferentes propuestas en función de su riesgo, con el objetivo de

fortalecer su transparencia, seguridad y el control humano. Se dividen en

cuatro tipos de riesgo: riesgo mínimo, donde se clasifican la mayoría de las

IA que no representan un alto riesgo para la seguridad de los ciudadanos,

como filtrar correos no deseados; riesgo reducido, donde los sistemas de

IA tienen obligaciones mínimas de transparencia, como es el caso de

ChatGPT de OpenAI, que se ha vuelto muy popular; riesgo alto, que

abarca diferentes áreas, como educación, formación profesional, servicios

públicos y privados esenciales, gestión de la migración, administración de

la justicia, entre otros, que son evaluados cuidadosamente antes de ser

introducidos en el mercado; y, por último, la clasificación inaceptable, que

se considera una amenaza clara para la ciudadanía de la Unión Europea.

El plan más actualizado en la UE es el Plan Coordinado sobre la IA, creado

inicialmente en 2018. Tiene cuatro objetivos principales, que son establecer

las condiciones propicias para el desarrollo y la adopción de la IA. Para

lograrlo, se propone crear una asociación privada sobre IA, datos y

robótica, centros de innovación digital y plataformas sostenibles que

faciliten el acceso e intercambio de conocimientos especializados e

información para fomentar la inclusión y la diversidad en la región.

La UE también garantizará un Comité Europeo de Inteligencia Artificial;,

donde cada estado miembro designará una autoridad encargada de

supervisar e informar si un sistema de IA presenta un alto riesgo. Se

mantendrá una vigilancia reforzada con la posibilidad de recurrir a medidas

judiciales, si fuera necesario.

En mi opinión, la IA llegó para quedarse, y habrá un momento en el que no

recordemos cómo era vivir sin ella. Lo importante es mantener la

responsabilidad, la seguridad, el control, y el fortalecimiento en la calidad

de los datos para garantizar la transparencia en todo momento.

Patricia Quezada Jiménez: estudiante del Prácticum del Master en

Sistemas de Información Digital en la Universidad de Salamanca.