El filósofo Thomas Metzinger ha participado en un grupo de expertos organizado por la UE para estudiar el uso justo de los algoritmos y se ha enfrentado a los representantes de la industria.
Esto es lo que piensa de los planes de la UE sobre reconocimiento facial en tiempo real y la aplicación Deepfake.
Mientras que las empresas están invirtiendo miles de millones de dólares en aprendizaje automático, crece el debate sobre la peligrosidad de estos algoritmos adaptativos.
Thomas Metzinger es profesor de Filosofía en la Universidad de Mainz. Representó a la Asociación de Universidades Europeas en un "Grupo de Expertos de Alto Nivel" de la Comisión de la UE.
Las nuevas propuestas de la UE para regular la Inteligencia Artificial (IA) se basan en parte en las recomendaciones del grupo.
Süddeutsche Zeitung: Sr. Metzinger, ¿qué preguntas éticas plantea la IA?
Thomas Metzinger: Por ejemplo, los basados en sistemas de armas autónomos que luchan y matan de forma independiente. O la monitorización biométrica en tiempo real, mediante reconocimiento facial por cámaras. Además, la optimización constante de las redes sociales. La gente acaba de entender que la IA gana a los mejores humanos en ajedrez o Go, pero la inteligencia artificial está jugando un juego diferente: ¿Quién controla la atención humana, los cerebros biológicos de las personas o el aprendizaje de algoritmos de IA en nuestro entorno mediático? Para mí, Facebook y Tiktok constituyen una tecnología de alto riesgo que amenaza el sistema.
SZ: ¿Considera que los llamados Deepfakes, es decir, las ilusiones algorítmicas, constituyen una amenaza?
Thomas Metzinger: Pronto tendremos avatares fotorrealistas de alta resolución que nos hablarán en lenguaje natural. Por lo tanto, es bueno que el nuevo borrador de la UE diga que una IA siempre debe identificarse inmediatamente como tal.
Thomas Metzinger (1958), profesor en Maguncia
SZ: ¿Qué más piensa de los planes regulatorios de la UE?
Thomas Metzinger: Creo que es bueno que quiera prohibir explícitamente la vigilancia biométrica en espacios públicos. Sin embargo, hay una trampa en el borrador: cada estado miembro debería poder utilizar la tecnología en la lucha contra el crimen y el terrorismo para ciertos delitos, y en caso de "peligro inminente" sin tener que recurrir a los tribunales. Este es un párrafo peligroso. Una vez más, acojo con gran satisfacción el hecho de que la UE defina a los niños como particularmente vulnerables a la tecnología.
SZ: ¿Pueden los filósofos como usted enseñar al software lo que está mal y lo que está bien?
Thomas Metzinger: No somos santos ni sabemos cuál es la verdad. Aún así, a las empresas les gusta usarnos como decoración para su marketing: "miren, aquí tenemos filósofos que dicen que la tecnología es limpia". La sociedad civil en su conjunto tiene que ponerse de acuerdo sobre lo que quiere hacer con la tecnología.
SZ: A la contratación de estudiosos de humanidades le llama "lavado de cara ético".
Thomas Metzinger: Sí, análogo al "lavado de cara ecologista" para la protección del medio ambiente. Las empresas organizan pseudodebates éticos con el fin de ganar tiempo para poder seguir introduciendo productos en el mercado y evitar la regulación por el momento.
SZ: Como miembro del grupo de expertos, vivió de cerca el desarrollo del borrador de la UE.
Thomas Metzinger: Como filósofo, fue una experiencia de aprendizaje interesante para mí. Nunca pensé que el lobby empresarial fuera tan fuerte. El proyecto de ley que se ha publicado ahora es un éxito para la industria armamentística europea.
SZ: Pero estaba ud en el grupo de expertos para que no solo se tuvieran en cuenta cuestiones comerciales o estratégicas.
Thomas Metzinger: El Parlamento de la UE también quiere prohibir los sistemas de armas autónomos. En el grupo de expertos, sin embargo, solo pudimos incluir formulaciones blandas en las recomendaciones. El tema está ahora explícitamente excluido del borrador de la Comisión.
SZ: ¿Entonces ud también formó parte de la decoración?
Thomas Metzinger: Sí. Fui allí como un niño estúpido y pensé seriamente que podía hacer algo bueno por Europa. Otros estaban allí para Zalando o SAP o quizás querían hacer carrera en la administración de la UE. La comisión dijo: "La ética es lo primero" y luego, de las 52 personas en el grupo, solo cuatro eran filósofos, y nunca me crucé con ninguno de ellos.
SZ: ¿Cómo funcionan este tipo de consultas éticas?
Thomas Metzinger: no estoy autorizado a hablar de ello. Después de mi escrito al respecto en el Tagesspiegel en 2019, hubo una clara indignación en el grupo. Aún así, he aprendido mucho y lo que tenemos ahora es mucho mejor que lo que tienen China y Estados Unidos.
SZ: ¿Cuáles fueron los puntos de discordia en el grupo?
Thomas Metzinger: Con Urs Bergmann de Zalando, fui reportero de "líneas rojas" e investigué: ¿Qué no debería existir nunca en Europa, qué no es negociable? Se trataba de cosas como el monitoreo de espacios públicos por IA. Como resultado, hubo una tormenta de protestas por parte de los representantes de la industria. Algunos dijeron que la palabra "líneas rojas" no debería aparecer en el documento final, y eso es lo que sucedió. Mientras tanto, Google, Facebook y Twitter han contratado especialistas en ética de la inteligencia artificial para vigilar sus algoritmos. Las corporaciones están muy interesadas en nuestro trabajo, probablemente Google siempre tuvo acceso a nuestro grupo. Pedí a la Comisión de la UE la creación de muchas cátedras interdisciplinarias de ética de la IA, Facebook lleva mucho tiempo apoyando una en la Universidad Técnica de Múnich. Las corporaciones ya están usando sus propios falsos éticos.
No hay comentarios:
Publicar un comentario