top of page

Resurrección e impostura con inteligencia artificial


Hay principios en IA que imponen límites a lo que puede hacerse moralmente, en función de la dignidad humana y el bien común. Imagen: geralt, Pixabay

¿Es ético usar herramientas de inteligencia artificial (IA) para dar voz a una persona viva o fallecida, y poner en su boca frases que nunca pudo haber dicho? La pregunta viene a cuento por un reciente video lanzado por el partido Acción Democrática (AD) en medio del calor de una campaña electoral para elegir el candidato unitario de la oposición, con miras a la elección presidencial de 2024 e igualmente, por otro video proveniente del régimen en el que se oye una declaración presuntamente falsa, con foto superpuesta de María Corina Machado, candidata a esa elección primaria.

En el primer video, manipulado por IA, el dos veces presidente Carlos Andrés Pérez, fallecido en 2010, aparece manifestando su "apoyo total" al actual candidato de AD, Carlos Prosperi, partido que por cierto expulsó de sus filas al expresidente en 1993, lo cual añade un toque de cinismo al video de marras.


Desde mediados del siglo pasado, la ciencia y la tecnología han avanzado a pasos de gigantes, sobre todo en los campos de la genómica y en las tecnologías de la información, a la vez que han generado una enorme cantidad de dilemas éticos, cuyas difíciles respuestas siguen pendientes en muchas áreas y que ya han merecido miles de discusiones internacionales, conferencias, libros publicados, sin que se haya conseguido consenso, salvo en algunos tópicos.


Limitándonos a la pregunta inicial, tomemos como referencia las "Recomendaciones sobre la ética de la IA", publicada por la Unesco en 2021 y su resolución sobre "el derecho a la privacidad en la era digital", en las cuales se insiste en la dignidad y los derechos humanos, y las libertades fundamentales como bases para guiar las normas de las tecnología de IA, así como en la privacidad, un derecho esencial para proteger la dignidad humana.


Es aquí donde entra el tema de los vivos y muertos y sus derechos a ser protegidos de abusos, porque con todos ellos tenemos obligaciones morales. Y es en ese sentido que su privacidad, sus datos personales no pueden ser usados como a cada quien le venga en gana, adjudicándoles expresiones y pensamientos nunca dichos ni en esta vida ni, mucho menos, en la otra.

De no mantener esa norma ética, la persona fallecida o no podría sufrir daños a su honor, reputación o dignidad, con perjuicio extendido a sus familiares. Por cierto, el primer caso señalado en párrafo anterior provocó el justificado rechazo de los familiares del expresidente, expresado en palabras de su hija Sonia: "Ese video es un ejemplo de lo que estamos sufriendo cuando personas irresponsables se valen de la tecnología disponible para engañar a quienes seleccionen como sus víctimas".

Todos estamos de acuerdo (o deberíamos estarlo) en que no es ético usar en vida informaciones de terceros sin su consentimiento. ¿Por qué, entonces, no habría esa restricción luego de su muerte? "No porque puedas hacerlo debes hacerlo", asegura Glauco Arbix, coordinador de impacto del Centro de Inteligencia Artificial de la Universidad de São Paulo. "Una cosa es que guardes en el cajón una película de alguien que murió para verla unas cuantas veces y otra cosa es recrear su imagen en nuevas condiciones, como si siguiera vivo".

Hace casi 50 años hubo una famosa reunión en California, la Conferencia Asilomar, en la cual se analizó el alcance de la biotecnología, el trasplante de genes de un organismo a otro, el futuro de la investigación en ADN recombinante, en fin, temas que el avance científico traía consigo. Mucho se avanzó entonces en la regulación ética de estos procesos y se sigue avanzando en tanto que el desarrollo de la ciencia genómica ha abierto nuevas fronteras que exigen nuevos límites éticos.

Inspirados en ese modelo, expertos en el campo de la IA y robótica han creado los Principios Asilomar de IA que imponen límites a lo que puede hacerse moralmente, en función de la dignidad humana y el bien común. Los Principios Asilomar son un excelente punto de partida para las discusiones sobre cómo explotar el potencial de la inteligencia artificial en los próximos años. Sin embargo, "ellos no proporcionan todavía un marco normativo adecuado para la necesaria definición de los límites absolutos de la investigación, el desarrollo y la aplicación de la IA, ni para la aplicación de tales límites por motivos de seguridad."

Al final, para responder a la pregunta inicial, de lo que se trata es de aplicar la regla de oro de aquel principio moral que debimos haber aprendido en la infancia: "Trata a los demás como quisieras que te trataran a ti" o en su versión negativa, "no hagas a los demás lo que no quieras que te hagan a ti."




Entradas relacionadas

Ver todo

Comments


bottom of page