Oh I'm just counting

Táctica de Guerra: Ucrania usa el reconocimiento facial para identificar a rusos muertos y se lo cuentan a sus familiares

Encuentre una foto de un soldado ruso muerto en las redes sociales. Subirlo al software de reconocimiento facial. Obtenga una coincidencia de identidad de una base de datos de miles de millones de imágenes de redes sociales. Identificar a la familia y amigos del difunto. Muéstreles lo que le pasó a la víctima de la guerra de Putin y la defensa de Ucrania.

Esta es una de las estrategias de Ucrania para tratar de informar a los rusos, que tienen un acceso limitado a los medios de comunicación y la información no controlados por el Estado, sobre la muerte provocada por la invasión de su presidente.

Reconocimiento facial de soldados rusos

El miércoles, el viceprimer ministro y jefe del Ministerio de Transformación Digital de Ucrania, Mykhailo Fedorov, confirmó en su perfil de Telegram que la tecnología de vigilancia se estaba utilizando de esta forma, pocas semanas después de que Clearview AI, el proveedor de reconocimiento facial con sede en Nueva York. , comenzó a ofrecer sus servicios a Ucrania para esos mismos fines.

Fedorov no dijo qué marca de inteligencia artificial se estaba utilizando de esta manera, pero su departamento luego lo confirmó a Forbes que fue Clearview AI, que proporciona su software de forma gratuita. Tendrán buenas posibilidades de obtener algunas coincidencias: en una entrevista con Reuters a principios de este mes, el director ejecutivo de Clearview, Hoan Ton-That, dijo que la compañía tenía una reserva de 10.000 millones de rostros de usuarios extraídos de las redes sociales, incluidos 2 mil millones del Facebook ruso: Vkontakte alternativo. Fedorov escribió en una publicación de Telegram que el objetivo final era "disipar el mito de una 'operación especial' en la que 'no hay reclutas' y 'nadie muere'".

Hace apenas un mes, Clearview AI y el reconocimiento facial fueron objeto de fuertes críticas. Los legisladores de EE. UU. denunciaron su uso por parte del gobierno federal y dijeron que la tecnología se enfocó de manera desproporcionada en las etnias negra, morena y asiática y las comparó falsamente con más frecuencia en comparación con las personas blancas . También dejaron en claro la amenaza existencial a la privacidad que representaba el software. Las organizaciones de derechos civiles como la Unión Estadounidense de Libertades Civiles no creen que la tecnología deba usarse en ningún entorno y piden prohibiciones absolutas.

Reconocimiento facial de soldados rusos

El caso de uso en Ucrania, por supuesto, es muy diferente de los que normalmente se ven en los EE. UU., que intentan identificar a los sospechosos de delitos. Identificar a los soldados rusos muertos podría ser más aceptable, si el objetivo final es que la gente sepa que sus seres queridos han muerto como resultado del belicismo de su líder.

Sin mencionar que los muertos no tienen derecho a la privacidad, al menos no de acuerdo con la ley estadounidense. Es una de las razones por las que la policía puede desbloquear iPhones u otros dispositivos inteligentes de los fallecidos sosteniéndolos frente a sus rostros (incluso si no tienen mucho éxito, debido a la detección de vida).

Pero, ¿deberían los defensores de la privacidad preocuparse por el uso del reconocimiento facial en tiempos de guerra, cuando podría legitimar el uso de la tecnología en otros escenarios donde la privacidad de los vivos está amenazada?

Para Ucrania, cree que es necesario identificar a los soldados rusos muertos, ya que hay mucha controversia sobre el número de militares fallecidos. La semana pasada, un periódico ruso publicó y posteriormente eliminó un informe que afirmaba que casi 10.000 soldados rusos habían muerto desde que comenzó la invasión, muchos más de los que se habían informado anteriormente. Más tarde, el tabloide afirmó que había sido pirateado y que las cifras no eran correctas. Ucrania cree que Rusia miente a sus ciudadanos sobre el número de muertos.

Reconocimiento facial de soldados rusos

Pero Albert Fox Cahn, fundador del Proyecto de Supervisión de Tecnología de Vigilancia, dijo que la introducción del reconocimiento facial en la guerra podría ser desastrosa, incluso si Ucrania lo está utilizando para decir la verdad a los ciudadanos rusos. "Esta es una catástrofe de derechos humanos en ciernes. Cuando el reconocimiento facial comete errores en tiempos de paz, las personas son arrestadas por error. Cuando el reconocimiento facial comete errores en una zona de guerra, le disparan a personas inocentes", dijo a Forbes .

"Me aterroriza pensar cuántos refugiados serán detenidos por error y fusilados en los puntos de control debido a un error de reconocimiento facial. Deberíamos apoyar al pueblo ucraniano con las defensas aéreas y el equipo militar que solicita, no convirtiendo esta guerra desgarradora en un lugar para la promoción de productos".

También se ha demostrado que el reconocimiento facial es falible, al hacer coincidir falsamente las imágenes de los rostros de las personas con la identidad incorrecta. En los EE. UU., esto les ha sucedido al menos tres veces a personas negras, que fueron arrestadas por error porque su rostro coincidía erróneamente con las imágenes de las cámaras de vigilancia.

Como señaló Cahn, "cuando el reconocimiento facial inevitablemente identifica erróneamente a los muertos, significará angustia para los vivos".

Cuando se le preguntó sobre esas preocupaciones o el uso de su tecnología, Hoan Ton-That, CEO de Clearview AI, dijo: "Las zonas de guerra pueden ser peligrosas cuando no hay forma de distinguir a los combatientes enemigos de los civiles. La tecnología de reconocimiento facial puede ayudar a reducir la incertidumbre y aumentar la seguridad en estas situaciones".

Dijo que las pruebas financiadas por el gobierno de EE. UU. habían demostrado que Clearview "puede seleccionar la cara correcta de una lista de más de 12 millones de fotos con una tasa de precisión del 99,85 %". Esa precisión "evitará que ocurran identificaciones erróneas en el campo".

"Los funcionarios ucranianos que han recibido acceso a Clearview AI han expresado su entusiasmo y esperamos saber más de ellos. Nos aseguramos de que cada persona con acceso a la herramienta esté capacitada sobre cómo usarla de manera segura y responsable", agregó.

Cualquiera que sea la moral en juego, el uso del reconocimiento facial en esta guerra es notable en su uso como herramienta en la guerra de propaganda. O como diría Ucrania, la guerra por la verdad. Incluso Fedorov no pensó que usaría la tecnología para esto antes de la invasión, y escribió en su publicación de Telegram: "Todos hemos cambiado. Empezamos a hacer cosas que ni siquiera podíamos imaginar hace un mes".