Un sistema de aprendizaje automático favorece a los hombres a la hora de asignar puestos de trabajo, otro que calcula los datos de las redes sociales disponibles públicamente que los usuarios pueden estar deprimidos y usar en su desventaja, mientras que asigna tres lugares de estudio de acuerdo con criterios vagos: tales escenarios, que los investigadores han aceptado durante mucho tiempo. Advierte que esto debería ser prohibido en la Unión Europea en el futuro. En la Comisión de la Unión Europea Se ha realizado una propuesta sobre la regulación de la inteligencia artificial.
A continuación, los estados miembros de la UE y el Parlamento de la UE debatirán la propuesta antes de que sea finalmente adoptada. Hasta ahora ha habido una clara tendencia a querer regular la IA de una manera que minimice los riesgos potenciales para los ciudadanos de la UE. «Además de las muchas aplicaciones beneficiosas de la inteligencia artificial, esta tecnología puede ser mal utilizada y proporcionar nuevas herramientas poderosas para prácticas manipuladoras, explotadoras y de control social», dijeron los redactores estatales. Es importante prevenir esto.
Entre otras cosas, hay una prohibición de las aplicaciones de inteligencia artificial que manipulan a las personas para dañarlas o que las monitorean sin ningún motivo. El software de reconocimiento facial también debería prohibirse, a menos que se utilice para buscar víctimas de delitos, para buscar delincuentes o para prevenir delitos graves. Además, no se debe permitir que las agencias gubernamentales realicen evaluaciones sociales. Estos sistemas de inteligencia artificial califican o clasifican a las personas en función de su comportamiento social. El borrador dice: «Puede conducir a resultados discriminatorios y la exclusión de ciertos grupos».
Los proveedores de sistemas de inteligencia artificial deben ofrecer análisis de riesgos futuros
Se supone que el diseño se centrará en ‘sistemas de IA de alto riesgo’. Estos incluyen sistemas destinados a garantizar la seguridad de las infraestructuras críticas, así como aplicaciones como la vigilancia predictiva para predecir delitos y sistemas que evalúan a las personas, por ejemplo, su solvencia y su idoneidad para un trabajo o lugar de estudio. Según la propuesta, deben cumplir una serie de requisitos en el futuro, incluido que sus proveedores de servicios deben realizar un análisis de riesgos y diseñar un sistema de gestión de riesgos.
Además, los datos de capacitación deben ser representativos y estar libres de errores en el futuro, y deben analizarse en busca de posibles distorsiones: estos supuestos sesgos en los datos con frecuencia conducen a la discriminación y la privación del derecho al voto de los grupos. Esto es especialmente importante en los sistemas de aprendizaje automático, donde sus decisiones suelen ser difíciles de entender.
El diseño es muy elogiado por muchos expertos, pero los detalles han sido criticados. El abogado de medios Stefan Dreyer del Instituto Hans Prideaux de la Universidad de Hamburgo al Media Science Center (SMC) dijo que el campo de aplicación, por ejemplo, «no es ampliamente comprendido». El término IA es tan amplio que «casi todos los programas que se utilizan actualmente pueden incluirse en él». No está claro hasta qué punto los sistemas operativos con software basado en inteligencia artificial, como los asistentes de idiomas, se incluyen en la lista. Dreyer teme que esto genere «una gran inseguridad jurídica para las empresas» y, por tanto, desventajas en la competencia internacional.
«Alborotador. Amante de la cerveza. Total aficionado al alcohol. Sutilmente encantador adicto a los zombis. Ninja de twitter de toda la vida».