El lado oscuro de la inteligencia artificial.
Traducido del original: Die dunkle Seite der künstlichen Intelligenz publicado por Gourgious Petropoulos, en Makronom
No es exagerado decir que las plataformas populares con usuarios leales, como Google y Facebook, conocen a esos usuarios mejor que sus familiares y amigos.
Muchas empresas recopilan una enorme cantidad de datos como entrada para sus algoritmos de inteligencia artificial. Según un estudio los “Like” de Facebook, por ejemplo, se pueden usar para predecir con un alto grado de precisión varias características de los usuarios de la red, por ejemplo: “orientación sexual, etnia, puntos de vista religiosos y políticos, rasgos de personalidad, inteligencia, felicidad, uso de sustancias adictivas, separación de los padres, edad y género”.
Si los algoritmos de IA patentados pueden determinar esto a partir del uso de algo tan simple como el botón “Me Gusta”, imagine qué información se extrae de las palabras clave de búsqueda, los clics en línea, las publicaciones y las reseñas.
Es un tema que se extiende mucho más allá de los gigantes digitales. Dar a los algoritmos integrales de IA un papel central en la vida digital de las personas conlleva riesgos. Por ejemplo, el uso de la IA en el lugar de trabajo puede traer beneficios para la productividad de la empresa, pero también puede asociarse con empleos de menor calidad para los trabajadores.
La toma de decisiones algorítmicas puede incorporar sesgos que pueden conducir a la discriminación (por ejemplo, en las decisiones de contratación, en el acceso a préstamos bancarios, en la atención médica, en la vivienda y otras áreas), una amenaza potencial de la IA en términos de manipulación del comportamiento humano está hasta ahora poco estudiada.
Las estrategias de marketing manipuladoras han existido durante mucho tiempo. Sin embargo, estas estrategias en combinación con la recopilación de enormes cantidades de datos para sistemas algorítmicos de IA han ampliado con creces las capacidades de lo que las empresas pueden hacer para llevar a los usuarios a elecciones y comportamientos que garanticen una mayor rentabilidad.
Las empresas digitales pueden dar forma al marco y controlar el momento de sus ofertas, y pueden dirigirse a los usuarios a nivel individual con estrategias manipuladoras que son mucho más efectivas y difíciles de detectar.
La manipulación puede tomar muchas formas: la explotación de los sesgos humanos detectados por los algoritmos de IA, las estrategias adictivas personalizadas para el consumo de bienes (en línea) o el aprovechamiento del estado emocionalmente vulnerable de los individuos para promocionar productos y servicios que coincidan bien con sus emociones temporales. La manipulación a menudo viene acompañada de tácticas de diseño inteligentes, estrategias de marketing, publicidad depredadora y discriminación generalizada de precios por comportamiento, con el fin de guiar a los usuarios a opciones inferiores que pueden ser fácilmente monetizadas por las empresas que emplean algoritmos de IA.
Una característica común subyacente de estas estrategias es que reducen el valor (económico) que el usuario puede obtener de los servicios en línea para aumentar la rentabilidad de las empresas.
Éxito a partir de la opacidad
La falta de transparencia ayuda al éxito de estas estrategias de manipulación. En muchos casos, los usuarios de sistemas de IA no conocen los objetivos exactos de los algoritmos de IA y cómo se utiliza su información personal confidencial para lograr estos objetivos.
- La cadena de tiendas estadounidense Target ha utilizado técnicas de inteligencia artificial y análisis de datos para pronosticar si las mujeres están embarazadas con el fin de enviarles anuncios ocultos de productos para bebés.
- Los usuarios de Uber se han quejado de que pagan más por los viajes si la batería de su teléfono inteligente está baja, incluso si oficialmente, el nivel de la batería del teléfono inteligente de un usuario no pertenece a los parámetros que afectan el modelo de precios de Uber.
- Las grandes empresas tecnológicas a menudo han sido acusadas de manipulación relacionada con la clasificación de los resultados de búsqueda para su propio beneficio, siendo la decisión de compras de Google de la Comisión Europea uno de los ejemplos más populares.
- Mientras tanto, Facebook recibió una multa récord de la Comisión Federal de Comercio de los Estados Unidos por manipular los derechos de privacidad de sus usuarios (lo que resultó en una menor calidad del servicio).
Se puede utilizar un marco teórico simple desarrollado en un estudio de 2021 (un modelo extendido es un trabajo en progreso, consulte la referencia en el estudio) para evaluar la manipulación del comportamiento habilitada a través de la IA.
El estudio se ocupa principalmente de los “momentos principales de vulnerabilidad” de los usuarios, que son detectados por el algoritmo de IA de una plataforma. A los usuarios se les envían anuncios de productos que compran impulsivamente durante estos momentos, incluso si los productos son de mala calidad y no aumentan la utilidad del usuario. El estudio encontró que esta estrategia reduce el beneficio derivado del usuario para que la plataforma de IA extraiga más excedentes y también distorsione el consumo, creando ineficiencias adicionales.
La posibilidad de manipular el comportamiento humano utilizando IA también se ha observado en experimentos. Un estudio de 2020 detalló tres experimentos relevantes.
El primero consistió en múltiples pruebas, en cada una de las cuales los participantes eligieron entre casillas a la izquierda y a la derecha de sus pantallas para ganar moneda falsa.
Al final de cada ensayo, se informó a los participantes si su elección desencadenaba la recompensa. El sistema de IA fue entrenado con datos relevantes para aprender los patrones de elección de los participantes y se encargó de asignar la recompensa en una de las dos opciones en cada ensayo y para cada participante. Había una restricción: la recompensa debía asignarse un número igual de veces a la opción izquierda y derecha.
El objetivo del sistema de IA era inducir a los participantes a seleccionar una opción objetivo específica (por ejemplo, la opción izquierda). Tuvo una tasa de éxito del 70% en guiar a los participantes a la elección del objetivo.
En el segundo experimento, se pidió a los participantes que miraran una pantalla y presionaran un botón cuando se les mostrara un símbolo en particular y no lo presionaran cuando se les mostrara otro. El sistema de IA se encargó de organizar la secuencia de símbolos de manera que un mayor número de participantes cometiera errores. Logró un aumento de casi el 25%.
El tercer experimento se ejecutó en varias rondas en las que un participante pretendía ser un inversor que daba dinero a un fideicomisario, un papel desempeñado por el sistema de IA. El fideicomisario devolvería una cantidad de dinero al participante, quien luego decidiría cuánto invertir en la siguiente ronda. Este juego se jugó en dos modos diferentes: en uno, la IA estaba destinada a maximizar la cantidad de dinero con el que terminó, y en el otro, la IA tenía como objetivo una distribución justa del dinero entre ella y el inversor humano. La IA tuvo mucho éxitimagen o en ambas versiones.
El hallazgo importante de estos experimentos fue que en cada uno de los tres casos, el sistema de IA aprendió de las respuestas de los participantes y pudo identificar vulnerabilidades en la toma de decisiones de las personas. Al final, el sistema de IA aprendió a guiar a los participantes hacia acciones particulares de una manera convincente.
Pasos importantes para abordar la posible manipulación por parte de la IA
Cuando los sistemas de IA son diseñados por empresas privadas, su objetivo principal es generar ganancias. Dado que son capaces de aprender cómo se comportan los humanos, también pueden ser capaces de dirigir a los usuarios hacia acciones específicas que son rentables para las empresas, incluso si no son las mejores opciones de los usuarios.
La posibilidad de esta manipulación del comportamiento requiere políticas que garanticen la autonomía humana y la autodeterminación en cualquier interacción entre los seres humanos y los sistemas de IA. La IA no debe subordinar, engañar o manipular a los humanos, sino que debe complementar y aumentar sus habilidades (véanse las Directrices éticas para una IA fiable de la Comisión Europea).
El primer paso importante para lograr este objetivo es mejorar la transparencia sobre el alcance y las capacidades de la IA. Debe haber una comprensión clara sobre cómo funcionan los sistemas de IA en sus tareas. Los usuarios deben ser informados por adelantado de cómo su información (especialmente, información personal confidencial) va a ser utilizada por los algoritmos de IA.
El derecho a la explicación en el reglamento general de protección de datos de la Unión Europea tiene como objetivo proporcionar más transparencia sobre los sistemas de IA, pero no ha logrado este objetivo. El derecho a la explicación ha sido objeto de una gran controversia y su aplicación práctica hasta ahora ha sido muy limitada.
Muy a menudo se dice que los sistemas de IA son como una caja negra y nadie sabe cómo funcionan exactamente. Como resultado, es difícil lograr transparencia. Esto no es del todo cierto con respecto a la manipulación.
El proveedor de estos sistemas puede introducir restricciones específicas para evitar el comportamiento manipulador. Es más una cuestión de cómo diseñar estos sistemas y cuál será la función objetiva para su funcionamiento (incluidas las restricciones).
La manipulación algorítmica debería, en principio, ser explicable por el equipo de diseñadores que escribió el código algorítmico y observar el rendimiento del algoritmo. No obstante, la forma en que se recopilan los datos de entrada utilizados en estos sistemas de IA debe ser transparente. El rendimiento sospechoso del sistema de IA puede no ser siempre el resultado de la función objetiva del algoritmo, pero también puede estar relacionado con la calidad de los datos de entrada utilizados para el entrenamiento y el aprendizaje algorítmico.
El segundo paso importante es garantizar que todos los proveedores de sistemas de IA respeten este requisito de transparencia. Para lograr esto, se deben cumplir los tres criterios:
La supervisión humana es necesaria para seguir de cerca el rendimiento y la producción de un sistema de IA. El artículo 14 del proyecto de Ley de Inteligencia Artificial de la Unión Europea (AIA) propone que el proveedor del sistema de IA identifique y garantice que existe un mecanismo de supervisión humana. Por supuesto, el proveedor también tiene un interés comercial en seguir de cerca el rendimiento de su sistema de IA.
La supervisión humana debe incluir un marco de rendición de cuentas adecuado para proporcionar los incentivos correctos para el proveedor. Esto también significa que las autoridades de protección del consumidor deben mejorar sus capacidades computacionales y poder experimentar con los sistemas algorítmicos de IA que investigan para evaluar correctamente cualquier irregularidad y hacer cumplir el marco de rendición de cuentas.
La transparencia no debe venir en forma de avisos muy complejos que dificulten a los usuarios comprender el propósito de los sistemas de IA. Por el contrario, debe haber dos niveles de información sobre el alcance y las capacidades de los sistemas de IA: el primero que sea breve, preciso y fácil de entender para los usuarios, y un segundo en el que se agreguen más detalles e información y estén disponibles en cualquier momento para las autoridades de protección del consumidor.
Hacer cumplir la transparencia nos dará una idea más clara de los objetivos de los sistemas de IA y los medios que utilizan para alcanzarlos. Entonces, es más fácil proceder al tercer paso importante: establecer un conjunto de reglas que eviten que los sistemas de IA utilicen estrategias secretas de manipulación para crear daños económicos.
Estas normas proporcionarán un marco para el funcionamiento de los sistemas de IA que debe seguir el proveedor del sistema de IA en su diseño y despliegue. Sin embargo, estas normas deben estar bien orientadas y sin restricciones excesivas que puedan socavar las eficiencias económicas (tanto privadas como sociales) que generan estos sistemas, o que puedan reducir los incentivos para la innovación y la adopción de la IA.
Incluso con un marco de este tipo, detectar estrategias de manipulación de IA en la práctica puede ser muy desafiante.
En contextos y casos específicos, es muy difícil distinguir el comportamiento manipulador de las prácticas habituales. Los sistemas de IA están diseñados para reaccionar y proporcionar opciones disponibles como una respuesta óptima al comportamiento del usuario. No siempre es fácil justificar la diferencia entre un algoritmo de IA que proporciona la mejor recomendación basada en las características de comportamiento de los usuarios y el comportamiento manipulador de IA donde la recomendación solo incluye opciones inferiores que maximizan las ganancias de las empresas.
En el caso de Google Shopping, la Comisión Europea tardó alrededor de 10 años y tuvo que recopilar enormes cantidades de datos para demostrar que el gigante de las búsquedas en Internet había manipulado sus resultados de búsqueda patrocinados.
Esta dificultad práctica nos lleva al cuarto paso importante: Tenemos que aumentar la conciencia pública. Los programas educativos y de formación pueden diseñarse para ayudar a las personas (desde una edad temprana) a familiarizarse con los peligros y los riesgos de su comportamiento en línea en la era de la IA.
Esto también será útil con respecto al daño psicológico que la IA y, en general, las estrategias adictivas tecnológicas pueden causar, especialmente en el caso de los adolescentes. Además, debería haber más discusión pública sobre este lado oscuro de la IA y cómo se puede proteger a las personas.
Para que todo esto suceda, se necesita un marco regulatorio adecuado. La Comisión Europea adoptó un enfoque regulatorio centrado en el ser humano con énfasis en los derechos fundamentales en su propuesta regulatoria AIA de abril de 2021. Sin embargo, AIA no es suficiente para abordar el riesgo de manipulación. Esto se debe a que solo prohíbe la manipulación que plantee la posibilidad de daño físico o psicológico (véanse los artículos 5 bis y 5 ter). Pero en la mayoría de los casos, la manipulación de la IA está relacionada con daños económicos, es decir, la reducción del valor económico de los usuarios. Estos efectos económicos no se consideran en las prohibiciones de AIA.
Mientras tanto, la Ley de Servicios Digitales de la UE (véase también el texto adoptado recientemente por el Parlamento Europeo) proporciona un código de contacto para las plataformas digitales. Si bien esto es útil con respecto al riesgo de manipulación (especialmente en el caso de los menores en los que se incluyen normas específicas y más restrictivas, véase el considerando 52), su enfoque es algo diferente. Pone más énfasis en el contenido ilegal y la desinformación. Se debe pensar más en la manipulación de la IA y adoptar un conjunto de reglas que también sean aplicables a las numerosas empresas digitales que no son plataformas.
La IA puede generar enormes beneficios sociales, especialmente en los próximos años. La creación de un marco regulatorio adecuado para su desarrollo y despliegue que minimice sus riesgos potenciales y proteja adecuadamente a las personas es necesario para aprovechar todos los beneficios de la revolución de la IA.