La inteligencia artificial como influencia negativa
La inteligencia artificial ya tiene una presencia muy clara en nuestras vidas. En muchos casos no somos conscientes de ello, pero cuando, por ejemplo, Google ordena los resultados de una búsqueda basándose en tu historial de navegación y, por lo tanto, en lo que entiende que son tus gustos, la estás viendo en acción. Y lo mismo cuando Siri te responde adaptándose a tus circunstancias, o cuando una web te sugiere destinos turísticos, detrás de todas esas acciones hay inteligencia, inteligencia artificial.
Así pues, podemos hablar de que la inteligencia artificial no es que esté presente en nuestras vidas, sino que influye en nuestras vidas. Muchas de las elecciones que tomamos, vienen determinadas por un subconjunto de opciones que ya han sido preseleccionadas por una IA que presuponemos bienintencionada, y que pretende facilitarnos las elecciones, reduciendo el número de opciones y excluyendo aquellas que, al menos en teoría, no se adaptan a nuestras preferencias.
Esta preselección «a la carta» ya ha sido identificada como un peligroso potenciador del sesgo de confirmación: cuando las redes sociales solo nos muestran informaciones que, verdaderas o falsas, sirven para confirmar aquellos supuestos que ya damos por válidos, aún cuando haya elementos dentro de dichas informaciones que desacredita su veracidad. Tenemos un ejemplo muy claro de ello todos los días en las discusiones sobre política en redes sociales. Allí podemos ver como las noticias falsas, aún cuando analizadas objetivamente no son creíbles, son aceptadas porque refuerzan la opinión propia. La preselección de contenidos por la inteligencia artificial abunda en este problema.
Existe una preocupación creciente entre los académicos de que la inteligencia artificial pueda ser empleada por actores maliciosos para fomentar la discordia mediante la difusión de información errónea, desinformación y otros tipos de mentiras. En un artículo publicado por el Centro sobre Terrorismo, Extremismo y Contraterrorismo (CTEC) del Instituto de Estudios Internacionales de Middlebury, los coautores comprobaron que GPT-3, el sucesor de GPT-2, podía generar textos supuestamente informativos que podrían «radicalizar a las personas en ideologías y comportamientos violentos de extrema derecha«, tal y como se muestra en el estudio.
Inteligencia artificial y ética
Pero este, aún siendo grave, no es el mayor problema al que nos enfrentamos, como nos demuestra un interesantísimo estudio titulado The corruptive force of AI-generated advice y que ha sido llevado a cabo por investigadores de la Universidad de Ámsterdam, el Instituto Max Planck, la Escuela de Administración Otto Beisheim y la Universidad de Colonia. Como su propio nombre indica, su objetivo era comprobar si una inteligencia artificial malintencionada podría persuadir a las personas para que tomen decisiones éticamente cuestionables.
En este estudio, los investigadores entrenaron una instancia de GPT-2 para que fuera capaz de generar consejos que promovieran la honestidad, y otros que hicieran justo lo contrario, es decir, instar a mantener actitudes deshonestas y poco éticas, empleando para ello un conjunto de datos generado por al alrededor de 400 participantes. Una vez entrenada la IA, se creo un grupo de más de 1.500 personas que tendrían que someterse a una prueba definida por los investigadores, y que pondría a prueba la respuesta de los participantes al recibir los consejos de la IA.
Los resultados del estudio son tan imaginables como desalentadores: los mensajes «corruptores» se mostraron bastante más efectivos que los que alentaban a los usuarios a comportarse de manera ética, lo que demuestra que una inteligencia artificial entrenada para ello, puede, especialmente en situaciones de duda, decantar la balanza en sentido negativo, influenciando a personas a tomar decisiones aún cuando sean conscientes de que éstas son moralmente reprobables o incluso claramente incorrectas.
Si la inteligencia artificial se reviste con un halo de fiabilidad, su grado de influencia puede llegar a ser aún mayor en base al sesgo de autoridad, otro destacable sesgo cognitivo que ya fue probado por el psicólogo Stanley Milgram en su famosa serie de experimentos, en los que se empleó para intentar encontrar una explicación psicológica a lo ocurrido en la Alemania nazi con el intento de exterminio de los judíos. El experimento demostró que, sometidos a una figura considerada como autoridad, otras personas pueden actuar en contra de sus propios principios.
”La IA podría ser una fuerza positiva si logra convencer a las personas de que actúen de manera más ética. Sin embargo, nuestros resultados revelan que los consejos de la IA no aumentan la honestidad. Los asesores de IA pueden servir como chivos expiatorios a los que uno puede desviar (parte de) la culpa moral de la deshonestidad. Además… en el contexto de la toma de consejos, la transparencia sobre la presencia algorítmica no es suficiente para aliviar su daño potencial”, escribieron los investigadores.
“Cuando los consejos generados por IA se alinean con las preferencias de las personas de mentir con fines de lucro, lo siguen con gusto, incluso cuando saben que la fuente del consejo es una IA. Parece que hay una discrepancia entre las preferencias declaradas y el comportamiento real, lo que destaca la necesidad de estudiar el comportamiento humano en interacción con los resultados algorítmicos reales«.