Las sombras de la Inteligencia Artificial
La Inteligencia Artificial (IA) ha revolucionado numerosos aspectos de nuestras vidas, desde la forma en que nos comunicamos, hasta cómo hacemos negocios.
Quisiera que imagines la creación de la energía atómica como una antesala. En sus inicios, se veía como la promesa de un futuro brillante, una fuente de energía limpia e ilimitada que podría mejorar la vida de millones. Sin embargo, esta misma energía fue utilizada para crear una de las armas más destructivas jamás conocidas: la bomba nuclear. La IA, la inteligencia artificial, es como la energía atómica. Es una herramienta poderosa que puede ser utilizada para el bien, pero también tiene el potencial de causar un daño inimaginable. Esta poderosa herramienta paulatinamente se está convirtiendo en un arma peligrosa en manos de aquellos que buscan explotar a los más vulnerables: nuestros niños.
Al igual que la bomba nuclear, la IA puede ser utilizada para crear algo terriblemente destructivo. En este caso, estamos hablando del material de abuso sexual infantil generado por inteligencia artificial (aka AI CSAM).
Si la bomba nuclear amenaza la existencia física, el “Child Sexual Abuse Material generated by Artificial Intelligence”, (por sus siglas en inglés, AI CSAM), amenaza la integridad psicológica de nuestros niños y la salud actual y futura de nuestra sociedad. Así es, la Inteligencia Artificial, una herramienta que promete revolucionar el mundo, está siendo utilizada de manera perversa para crear un nuevo tipo de amenazas.
Estas amenazas, que crecen a un ritmo alarmante, requieren de nuestra atención y acción inmediata, pues se convierten rápidamente en una nueva y aterradora realidad que amenaza la seguridad, incluso de las personas menores de edad en línea.
Mediante el despliegue de algoritmos avanzados, los ciberdelincuentes pueden crear imágenes y videos hiperrealistas de abuso sexual infantil utilizando como base fotografías reales o generando representaciones completamente ficticias. Los ciberdelincuentes mediante la manipulación y el empleo de estos sofisticados algoritmos de IA manipulan imágenes existentes o generar nuevas representaciones hiperrealistas de menores en situaciones de abuso.
Estos avances tecnológicos permiten:
- Los rostros de personas reales pueden ser sustituidos por los de niños, creando imágenes falsas de abuso.
- La IA puede crear cuerpos virtuales de niños con un nivel de detalle asombroso, haciendo que las imágenes sean prácticamente indistinguibles de las reales.
- Los algoritmos pueden animar estas imágenes, creando videos falsos, incluso de abuso sexual infantil.
Hay un impacto devastador en ciernes desde el AI CSAM, que comprenden temas como:
- Las imágenes generadas por IA permiten recrear y difundir el abuso de víctimas reales, o la simulación de las imágenes a partir de segmentos de ellas; causando un daño psicológico irreparable.
- Al ser imágenes falsas, es más complicado identificar a las víctimas reales y brindarles la protección necesaria.
- La IA facilita la creación masiva de este tipo de material, saturando las redes sociales y servicios para adultos, dificultando su detección.
- Las imágenes generadas por IA son cada vez más realistas, lo que dificulta la identificación por parte de los sistemas de filtrado y también para la identificación humana de los videos generados por AI.
- La proliferación de este material puede contribuir a normalizar la pedofilia y facilitar el acceso de los delincuentes a material de abuso. Nada nuevo en un mundo donde todo se impulsa hacia la normalización, sea bueno o sea malo.
Ante esta creciente amenaza, es fundamental una respuesta coordinada a nivel global desde los siguientes vértices:
- Es necesario adaptar las leyes existentes para abordar este nuevo tipo de delito y establecer penas más severas.
- La sociedad en general debe dedicar más recursos a combatir este nuevo tipo de delito, restando tiempo a otras investigaciones.
- La lucha contra el AI CSAM requiere una cooperación estrecha entre países para compartir información y coordinar esfuerzos.
- Se necesitan herramientas más sofisticadas para detectar y eliminar el material generado por IA.
- Es esencial educar a niños, adolescentes y adultos sobre los riesgos de internet y cómo protegerse. Un tema en el que sin duda tenemos como sociedad una enorme deuda acumulada.
- Las empresas que desarrollan herramientas de IA deben tomar medidas para prevenir el uso malicioso de sus productos. Igualmente, todas las empresas que reditúan con el mercado compartido de la tecnología, están llamadas a formar parte de proyectos de conciencia e higiene digital.
Te preguntarás que puedes hacer, o que podemos hacer desde nuestros hogares, aquí algunos consejos sencillos:
- Mantenernos actualizados sobre las últimas tendencias en materia de seguridad en línea es ya un tema ordinario.
- Hablar con nuestros papás, familia cercana e hijos sobre los riesgos de internet y enseñarles a proteger su privacidad.
- Reportar cualquier contenido sospechoso a las autoridades o a organizaciones como la Internet Watch Foundation (IWF).
- Hace el esfuerzo de colaborar con organizaciones que trabajan para combatir el abuso sexual infantil.
Como ves, el material de abuso sexual infantil generado por inteligencia artificial (aka AI CSAM) o “Child Sexual Abuse Material generated by Artificial Intelligence”, representa una amenaza sin precedentes para la seguridad de nuestros niños y del futuro de nuestras sociedades.
Es fundamental que todos trabajemos juntos para combatir este delito y crear un entorno en línea más seguro para todos. La tecnología debe ser utilizada para proteger a nuestros hijos, no para dañarlos.