Cuando se trata de los riesgos de la inteligencia artificial, es mejor preguntar más que a la UE
La inteligencia artificial (IA) está revolucionando la economía y la sociedad. Estados Unidos está a la cabeza, mientras que China se está poniendo rápidamente al día e invertirá 150.000 millones de dólares de aquí a 2030. Por lo tanto, Europa debe tener cuidado de no perder terreno.
El anuncio de que la UE quiere invertir ahora 20.000 millones de euros al año en la tecnología del futuro debe entenderse en este sentido. Esto es lo que dice en su "Libro Blanco sobre Inteligencia Artificial", que la Comisión de la UE ha publicado recientemente. La suma la recaudarán conjuntamente la UE, los Estados miembros y las empresas, pero aún está por ver cómo.
Además de la financiación, el Libro Blanco de la IA aborda otras cuestiones fundamentales, como el riesgo de la implantación de la IA. La UE solo es vaga en este aspecto, por lo que prácticamente invita a seguir reflexionando sobre la minimización del riesgo, que debería incluir las condiciones previas para una aplicación significativa de la IA, así como puntos de partida para las empresas.
El Libro Blanco afirma: La confianza necesaria debe garantizarse mediante una legislación sobre IA que se corresponda con los riesgos, pero que no impida la innovación. La UE ve un alto riesgo en los sectores de la sanidad, el transporte, la policía y el sistema judicial.
Una solución de IA se clasifica como crítica si es probable que cause repercusiones legales, riesgo para la vida, daños o lesiones. Por ejemplo, el documento de la UE cita la tecnología médica, la conducción automatizada y las decisiones de la seguridad social como ejemplos de uso arriesgado de la IA.
La UE reclama ahora una normativa estricta que regule las pruebas de conformidad, los controles y las sanciones para garantizar que "Los sistemas de IA de alto riesgo son transparentes, rastreables y están bajo control humano".. La Comisión argumenta:
"Las autoridades tienen que poder comprobar los sistemas de IA igual que los cosméticos, los coches y los juguetes". Otras aplicaciones de IA podrían etiquetarse voluntariamente. Pensándolo bien, la normativa significa, por ejemplo, para el sector sanitario: Sólo podrán utilizarse sistemas expertos.
Toman decisiones según reglas definidas. Funcionan de forma transparente, pero no reconocen patrones en las radiografías y no aprenden. La situación es distinta con las aplicaciones de IA para el aprendizaje automático que utilizan redes neuronales.
Una neurona se modela como una función, que incluye entrada, parámetros y salida. Fotos, textos, números, vídeos o archivos de audio sirven de entrada de datos. Con ellos se entrena al modelo para que reconozca patrones de forma independiente, ofrezca mejores resultados y, en última instancia, evalúe datos desconocidos.
Una certificación comprensible es la clave para crear la confianza necesaria en los sistemas de IA. Definir los criterios de certificación no debe ser tarea exclusiva de la política.
Las empresas y la investigación también tienen demanda. La UE ha proporcionado la plantilla para ello con su Libro Blanco sobre IA. Todos los implicados deben pensar también en lo que ocurre si cambia el uso previsto.
Las empresas tienen el deber de crear una infraestructura de datos y unos conocimientos expertos adecuados para el uso significativo de la IA. Las que no lo hagan perderán decisivamente su capacidad de innovación. Este es el riesgo de la IA del que son responsables las propias empresas y al que pueden dar forma.