En un artículo del periodista y cineasta israelí Abraham Yuval, «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza» publicado el 3 de abril en +972 Magazine, una revista independiente dirigida por un grupo de periodistas palestinos e israelíes, se denuncia como el ejército israelita está utilizando la Inteligencia Artificial (IA) para masacrar a los palestinos en Gaza.
Según el artículo, el ejército israelí está utilizando una aplicación informática basada en IA, denominada «Lavender», para identificar objetivos en Gaza, señalando a miles de personas como potenciales objetivos de ataques aéreos. El sistema no solo localiza a supuestos miembros de Hamás, sino que también considera sus domicilios como posibles blancos, dando como resultado una escalada de violencia y el uso de bombas no guiadas para atacar a individuos de menor rango. Esto está ocasionando altas tasas de víctimas civiles, incluidos niños y mujeres. Las fuerzas israelíes están operando con una amplitud de criterios que permiten una cantidad significativa de daños colaterales. Las políticas permisivas y la dependencia de la IA para generar objetivos provocaron ataques poco precisos y masivas bajas civiles.
Según el autor del artículo, la automatización de decisiones críticas y el uso de estadísticas para justificar acciones militares plantean serias preocupaciones éticas y legales. Los ataques apuntan sistemáticamente a hogares privados, eliminando a familias enteras, y se está observando un incremento considerable en el umbral de bajas civiles aceptables para el asesinato de comandantes de alto rango. Según Yuval, la operación militar israelí en Gaza, marcada por el uso de la IA «Lavender», refleja una estrategia que prioriza la eliminación de objetivos sobre la protección de vidas civiles, dejando profundas cicatrices en la población y cuestionamientos sobre el futuro de la guerra y la tecnología en el conflicto.
Los puntos claves de la extensa denuncia publicada en +972 Magazine son:
1. En 2021 se publicó un libro que defendía la creación de una inteligencia artificial capaz de generar objetivos militares en situaciones de guerra, escrito supuestamente por el comandante de la unidad de inteligencia élite 8200 del ejército israelí.
2. El ejército israelí ha desarrollado un programa de IA llamado «Lavender» utilizado para identificar y señalar a miles de palestinos como posibles objetivos de ataques aéreos. Esta tecnología señala no solo a personas sospechosas de ser militantes, sino también sus domicilios.
3. Se revela que durante la guerra en Gaza, el ejército israelí está dependiendo casi completamente de «Lavender» para determinar objetivos, ocasionando el señalamiento de 37.000 personas y sus hogares para posibles ataques aéreos.
4. Las fuerzas israelíes utilizan bombas no guiadas, conocidas como «bombas tontas», preferentemente contra sospechosos de menor rango, causando destrucción masiva de edificios y numerosas bajas civiles bajo el concepto de “daños colaterales».
5. Se implementan políticas que permiten altos niveles de daños colaterales durante los ataques, incluyendo el asesinato de civiles junto a los objetivos militares señalados. En algunos casos, se permite la muerte de más de 100 civiles para asesinar a un único comandante militar de alto rango.
6. La dependencia de herramientas automáticas para la localización de personas y de la IA para la identificación de objetivos y el cálculo de daños colaterales contribuye a la falta de precisión en los ataques, dando como resultado una escalada de violencia y muertes innecesarias.
7. Los ataques basados en las decisiones de la IA «Lavender» han ocasionado y están ocasionando numerosas víctimas civiles, incluyendo el asesinato de familias enteras dentro de sus hogares, lo que plantea preocupaciones sobre la ética y legalidad de utilizar IA para determinar objetivos militares y la proporcionalidad de los ataques.
De acuerdo con todos estos aspectos claves del uso de «Lavender», debemos constatar las implicaciones éticas y operativas de depender de los algoritmos predictivos de la IA para la toma de decisiones críticas en conflictos armados.
Todo apunta a que «Lavender» es un ejemplo de la utilización de IA como arma de guerra y su lado perverso al crear armas autónomas que seleccionan y atacan objetivos sin intervención humana, eliminado la responsabilidad moral del uso de la fuerza y el aumento el riesgo de errores, bajas civiles y escalada de conflictos.
Desde distintos foros internacionales, además de académicos y expertos en IA, se denuncia el empleo de la IA como arma bélica o para el control de poblaciones de forma directa o indirecta. Una preocupación que se justifica porque el uso de la IA tiene un lado perverso y cruel en actividades de desinformación y propaganda; en la ciberguerra y los ataques a infraestructuras; en la discriminación y sesgo, lo que conlleva ataques específicos contra grupos minoritarios o poblaciones vulnerables; en la proliferación de armas dotadas de IA que podría conducir a una carrera armamentista desestabilizadora aumentando el riesgo de conflicto y guerra, o en la dependencia sin control de la IA en la guerra, porque podría erosionar el control humano sobre el uso de la fuerza y conducir a consecuencias impredecibles, que es lo que está pasando en estos momentos en Gaza.
Y puestos a resaltar los aspectos negativos de la creatividad aumentada en la destrucción entre seres humanos apoyados por la IA, también podríamos señalar: la invisibilidad, porque las armas de IA pueden ser difíciles de detectar y rastrear, lo que dificulta la atribución de responsabilidad y la disuasión; la escalabilidad, ya que la IA puede usarse para crear armas en masa a bajo costo, lo que aumenta el riesgo de proliferación y uso por parte de actores no estatales, o, porque no, la normalización:de la violencia y la automatización de la muerte, con consecuencias nefastas para la sociedad.
La conclusión es clara, la utilización de IA como arma de guerra presenta una serie de aspectos perversos que deben ser considerados cuidadosamente por la comunidad internacional y es crucial desarrollar marcos regulatorios y éticos sólidos para prevenir el desarrollo y uso de estas armas y garantizar que la IA se use para el bien de la humanidad. Por el momento, la comunidad internacional, aunque existan foros que, tal como hemos mencionado anteriormente, trabajan para generar conciencia sobre los riesgos de las armas de IA y promover un debate sobre cómo prevenir su desarrollo y uso aún no ha llegado, y difícilmente llegará, a un consenso sobre la regulación de la IA en la guerra.
Con esta publicación, no quiero demonizar a la IA por los usos perversos que están realizando y realizarán los gobiernos, grupos mafiosos y otros humanos carentes de principios éticos y morales. A lo largo de la historia de la humanidad, muchas de las innovaciones tecnológicas acabaron teniendo un doble uso. Es fácil de imaginar ese día que nuestro antepasado inventó la lanza sacándole punta a un palo, mejoró su capacidad para cazar animales o defenderse de sus ataques, pero también la utilizó como una arma eficaz de guerra contra sus congéneres. Una tecnología, la lanza, que evolucionó y se perfeccionó a lo largo de los siglos como arma letal. Y si nos remontamos hasta las tecnologías para el tratamiento de la información, la tecnología de las tarjetas perforadas de IBM de los años 30 y 40 del siglo pasado, contribuyó en la optimización de la gestión del Holocausto al permitir automatizar la identificación, localización y clasificación de los judíos, los homosexuales, los gitanos y otros colectivos mediante la creación de listas de grupos destinados a la deportación y exterminación, tal como denuncio Edwin Black en su libro publicado en el 2001, con el título «IBM y el holocausto: la alianza estratégica entre la Alemania nazi y la corporación más poderosa de América».
Hoy la tarea de identificación, localización y clasificación de los humanos por la IA es relativamente fácil, los Estados disponen de una inmensa cantidad de datos sobre nosotros desde que nacemos hasta que morimos. Además, muchos datos de nuestra vida cotidiana, como hábitos de tipo social, las relaciones entre personas (familiares, amistad, profesionales, conocidos), las conversaciones, nuestras opiniones, nuestros exabruptos, nuestra ideología o tendencia religiosa, entre otros mucho más, están en la nube del «big data», la inmensa mayoría de estos datos los hemos aportado nosotros mismos voluntariamente a las redes sociales o en nuestras actividades por internet. Por tanto, cualquier organismo o corporación que pueda acceder a estos datos, está en condiciones de entrenar a modelos de IA para que sus algoritmos predictivos realicen determinadas acciones, tanto a favor, como en contra de nosotros.
Deja una respuesta