Espacio publicitario

Inteligencia Artificial ¿seguridad ciudadana o espionaje social?

Las nuevas tecnologias amenazan con un nuevo enfoque para combatir la inseguridad

  • CARLOS D' HOY

04/09/2022 05:00 am

La inteligencia artificial es un tema recurrente en la ciencia ficción desde la era de oro de este género. Historias en las que la humanidad corre peligro ante las máquinas que deciden quitarnos del medio en su auge como “especie superior”, Odisea 2001, Terminator, Mátrix, Minority Report son algunas de las más famosas películas que nos enfrentan al miedo de perder una batalla ante la tecnología.

El despertar de la conciencia de las máquinas despierta debates entre científicos. Hace poco Google enfrentó una crisis, cuando uno de sus ingenieros aseguró que una IA (Inteligencia Artificial) había cobrado conciencia sobre sí misma. Este tema todavía está por desarrollarse.

Pero más allá de los oscuros designios de escritores y futurólogos, la Inteligencia Artificial, es una realidad en nuestro día a día las alimentamos con millones de búsquedas, consultas, traducciones, fotografías, comentarios, videos y me gusta subidos a las redes sociales. Están ocultas entre las transacciones bancarias, en los millones de fotos mejoradas mágicamente; en las decisiones de otorgar o no un seguro, en la conducción autónoma, en las risas ante los chistes de los videos, en las redes sociales y en las decisiones que tomamos cuando elegimos qué película ver o qué canción escuchar en las redes de streaming. Estamos rodeados de IA.

Ok, están en todas partes, pero ¿Cómo se involucra la IA en la seguridad ciudadana?, ¿Cuál es la perspectiva a futuro? ¿Estamos a las puertas de una nueva sociedad gobernada por sistemas inteligentes?

Inteligencia policial
Hoy en día hay tecnologías que permiten identificar personas por sus rasgos y perseguirlos. En China integrantes de la etnia Uigur, son perseguidos y enviados a campos de concentración por ser considerados una minoría terrorista, los identifican gracias a IA.

El estado ha instalado sistemas de videovigilancia y ha desarrollado tecnologías para identificar rostros, persigue a sus detractores, no con perros, sino con cámaras y espionaje telefónico.

Raymond Orta, director ejecutivo del Instituto Venezolano de Derecho Tecnológico, destaca que “hay cientos de áreas en las que la Inteligencia Artificial ha demostrado ser eficiente, como en los fraudes con tarjetas de crédito y bancarios. La IA ayuda en la detección de patrones de fraude con dinero plástico y permite prevenirlos, así como el manejo de multitudes en migraciones como en los casos de India y Emiratos Árabes, las grandes multitudes son monitoreadas por IA para evitar estampidas que puedan cobrar cientos de vidas, dan una alerta cuando hace falta y las autoridades actúan”.

Pero en países como el nuestro prevenir delitos a través de IA es otro cantar, “para que eso ocurra, tendríamos que cargar enormes cantidades de datos en sistemas inteligentes para contar con estadísticas que levanten banderas rojas, cuando ocurra el incremento de delitos por tipos o por zonas y por los resultados, es obvio que eso no se está haciendo”.

“Teniendo uno de los índices más altos de criminalidad, necesitamos de sistemas para diseñar políticas públicas que se apoyen en la tecnología de Inteligencia Artificial para atacar el problema de la criminalidad”.

Atrapando datos en todas partes
Orta acotó que cualquier sistema inteligente requiere de una gran cantidad de datos que la alimenten. “Tenemos años dando información, sin saberlo, a grandes empresas tecnológicas como Google, Facebook, Amazon, Tesla, para que alimenten sus IA”.

“La inteligencia artificial se nutre de datos. Los verificadores de humanidad o CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) que vemos hoy en internet se usan para alimentar enormes bases de datos de inteligencia artificial”.

Una de las cosas que debemos tener en cuenta es que en todas partes se recauda información, “Tesla no es una empresa que fabrica carros, detrás de eso hay una enorme recopilación de datos, desde el estado de las vías, hasta lo que la gente escucha, habla, y mira; qué atrae su atención, datos que alimentan a las IA que construyen”, agregó el especialista.

Para el bien o para el mal
Como todos los inventos, la inteligencia artificial no se escapa de poder ser utilizada con fines ilegales, principalmente en los temas de ciberseguridad y ciberterrorismo. Una inteligencia artificial puede ser utilizada para aprender a evadir los sistemas de seguridad informática y luego para violentarlos. También puede ser utilizada para atacar infraestructuras vitales, como hospitales, torres de control de aeropuertos, centrales nucleares y refinerías petroleras.

Las IA pueden ser envenenadas con información falsa para engañarlas y alterar el mercado de valores, pueden ser usadas para ataques con drones para evadir sistemas de seguridad, “la verdad es que lo que puede ser utilizado para el bien también puede ser utilizado para el mal.”

Legalidad sesgos y persecución
Uno de los aspectos más discutidos sobre el uso de la IA en materia de seguridad ciudadana son los aspectos éticos y legales de su uso, agrega Orta.

La observación permanente de la ciudadanía, tal como ocurre con las cámaras de videovigilancia y la utilización de programas espías, como el software Pegasus, para violentar y desencriptar mensajes de personas seguidas, son acciones ilegales, pero comúnmente usadas por gobiernos bajo distintas excusas.

En nuestro país se ha hecho común espiar a líderes opositores o a su militancia y “filtrar” esos mensajes a programas políticos oficialistas, para emplear esa información como base de futuras averiguaciones policiales, lo que deja en evidencia los riesgos que representan para las libertades civiles esas tecnologías.

Otro de los problemas de las inteligencias artificiales es el sesgo. Los datos con los que las alimentan, pueden ser alterados y hasta “envenenados”. Una base de datos puede afectarse para alterar su comportamiento. Ejemplo de ello son las polémicas conversaciones racistas, antisemitas, homofóbicas, sexistas y segregacionistas observadas en algunas IA debido a que fueron entrenadas con datos contaminados que estaban en las redes sociales.

Una IA fue entrenada en EEUU para “asesorar” a jueces en la toma de decisiones, pero sus opiniones eran claramente racistas, debido al cúmulo de sentencias en contra de la población afrodescendiente con que fue alimentada.

Las IA no son infalibles, son herramientas que requieren de la participación humana para hacer su trabajo, pueden asesorar a las personas.
Siguenos en Telegram, Instagram, Facebook y Twitter para recibir en directo todas nuestras actualizaciones
-

Espacio publicitario

Espacio publicitario

Espacio publicitario

DESDE TWITTER

EDICIÓN DEL DÍA

Espacio publicitario

Espacio publicitario