Inteligencia Artificial y gobierno.

Guillermo Moncecchi

La inteligencia artificial (IA) ha tenido un crecimiento notable, siendo probablemente un salto cualitativo en el ya destacado desarrollo tecnológico que se viene viviendo desde los años sesenta. Este crecimiento en general ha sido con las banderas del éxito del procesamiento de lenguaje natural (Alexa, los chatbots) y, sobre todo, del reconocimiento de imágenes. A este crecimiento, lo acompaña un hype que hace la mayoría de las compañías de tecnología tengan en las portada de su página web la sigla IA (o AI, según el idioma o perfil del escribiente) a veces con un poquito de vergüenza por no saber justificar muy bien por qué, otra veces no.

Me atrevería a decir que el desarrollo tecnológico en las últimas décadas no tiene antecedentes históricos comparables desde la revolución industrial, e incluso, igual que aquella vez, ha dirigido muchos aspectos del crecimiento. Esto puede llevar a creer que la tecnología es ese crecimiento, y que, inevitablemente, sucederá lo que la tecnología (y las compañías dueñas de esa tecnología) decidan. Creo que esto es un mito, ya que el crecimiento depende muchísimo más de lo que los gobiernos hagan para decidir el rol que cumplirá la tecnología y el conocimiento en el futuro. Es decir, el camino del crecimiento es una decisión política, y la IA no es la excepción.

Aquí intentaré reflexionar cómo un gobierno podría incorporar a su gestión la aproximación IA, que es bastante más que tecnología o herramientas informáticas. 

Una forma de hacerlo es comprar paquetes de software y gestión que incluyen (o dicen incluir) IA en su desarrollo, pero no en su uso. Estas soluciones funcionan en casos donde la tecnología ya está plenamente asentada (reconocimiento de matrículas), pero pueden quedar lejos de las expectativas (un chatbot que termine siendo menos útil que poner una página web con preguntas frecuentes), o ser incluso peligrosas (un software que reconoce y clasifica personas, y toma decisiones automáticas en base a ello). En el mejor caso, este tipo de soluciones no son más que una incorporación de tecnología, algo que puede ser positivo pero para nada nuevo.

Dar un paso más e incorporar IA (o Ciencia de Datos en general, incluyendo otro tipo de análisis) es posible, y probablemente no muy complicado, si se entiende que debe ser una política general, y no una aproximación tecnológica. Algunas ideas:

– Lo primero es entender qué se quiere hacer. Parece de Perogrullo, pero yo mismo escuché a un gerente de TI decir «ya tengo mi plataforma de IA andando, ahora tengo que ver en qué usarla». No funciona así: la decisión de qué hacer sigue siendo política o gerencial, y debe ser ideada por quien tiene que resolver el problema, y no por aquel que debe construir la solución: «quiero que, cuando llegue un mensaje, reconozca de forma automática cuál oficina debe atenderlo». Este qué lleva oculto un cómo: la IA no es magia, y entender cuáles son los métodos y su alcance es importante. Todo gestor debería entender los alcances de la IA, y eso exige capacitación.

– Debemos conocer qué datos tenemos y qué datos nos importan. Para poder aplicar IA se necesitan, invariablemente, datos: histórico de reclamos, indicadores y su evolución, lista de consultas realizadas en nuestro centro de atención, páginas web más visitadas, indicadores socioeconómicos por zonas, etc. Los datos están hoy por todos lados, y elegir cuáles se necesitan depende mucho de la definición previa de los objetivos de la implementación. 

– Cuando tengamos el qué y los datos, tenemos que definir el cómo. La visión de la IA como una caja negra es una idea simplista muy utilizada por las empresas de tecnologías para vender soluciones, y es generalmente falsa. El trabajo de despliegue de una solución de IA requiere constantes ajustes entre quienes definen qué se quiere hacer, el experto del dominio (que conoce el problema y los datos) y el experto en IA (que conoce los modelos). Si falta alguno es probable que no se llegue a nada, o a una solución que finalmente no sea útil. Este trabajo debe necesariamente incluir aspectos éticos, si no se quiere caer en soluciones que reproduzcan o introduzcan sesgos que provoquen más problemas que los que se quieren solucionar. 

– Para finalizar, si realmente queremos un salto cualitativo, deberíamos publicar datos y modelos en formatos abiertos, apostando a la investigación y a la colaboración. El éxito de la ciencia de datos es, en gran medida, un resultado de los esfuerzos que se han hecho en materia de  datos abiertos y de la consolidación del software de código abierto en estas comunidades de investigación. Tener esto presente puede ser una diferencia enorme, y un requisito imprescindible, en un área que crece tanto en datos como conocimiento, y donde las grandes compañías de Internet capturan talentos a un ritmo nunca visto antes. 
Para países en vías de desarrollo como los latinoamericanos, el desafío es aún mayor, aunque presenta una oportunidad. La colaboración como estrategia puede abrir muchos caminos. Debemos seguir y apoyar experiencias ABRELATAM, los encuentros Khipu o LXAI de investigadores en IA de la región. Otra oportunidad que puede contribuir a ese salto en la región es multiplicar iniciativas como EmpatIA, organizada por ILDA,  en la que tuve el honor de participar como jurado. La integración en Latinoamérica ha sido siempre un problema sin resolver, tal vez haya aquí una nueva oportunidad.