Los seres humanos hacen deducciones basadas en el tono y el significado sus interlocutores, pero los algoritmos pueden encontrar relaciones ocultas en las palabras para detectar la ironía y la falsedad intencional.
Una nueva herramienta de IA financiada en parte por el Ejército estadounidense ha demostrado ser experta en una tarea que tradicionalmente ha sido muy difícil para los programas informáticos: detectar el arte humano del sarcasmo, lo que podría ser útil a las agencias de inteligencia al aplicar la inteligencia artificial al análisis de tendencias al evitar publicaciones en redes sociales que no son serias.
Ciertas palabras en combinaciones específicas pueden ser un indicador predecible de sarcasmo en una publicación en las redes sociales, incluso si no hay mucho otro contexto, señalaron dos investigadores de la Universidad de Florida Central en un artículo de marzo en la revista Entropy.
Utilizando una variedad de bases de datos de publicaciones de Twitter, Reddit, diálogos diversos e incluso titulares de The Onion, Garibay y su colega Ramya Akula, mapearon cómo algunas palabras clave se relacionan con otras palabras. «Por ejemplo, palabras como ‘sólo’, ‘otra vez’, ‘totalmente’, ‘!’, tienen matices más oscuros que las conectan con todas las demás de una frase. Estas son las palabras de la frase que insinúan el sarcasmo y, como era de esperar, reciben mayor atención que otras», escriben.
El método se basa en lo que los investigadores denominan arquitectura de autoatención, un método para entrenar complejos programas de inteligencia artificial llamados redes neuronales para que den más peso a unas palabras que a otras, dependiendo de qué otras palabras aparecen cerca y de lo que el programa tenga que hacer.
«La atención es un mecanismo para descubrir patrones en la entrada que son cruciales para resolver la tarea dada. En el aprendizaje profundo, la auto-atención es un mecanismo de atención para las secuencias, que ayuda a aprender la relación específica de la tarea entre diferentes elementos de una secuencia dada para producir una mejor representación de secuencia» Ivan Garibay, uno de los investigadores, dijo a Defense One. (El concepto originalmente se remonta a un artículo de un investigador alemán y canadiense de 2016.)
La detección del sarcasmo con algoritmos puede no parecer tener mucha relevancia militar, pero considere cuánto más tiempo pasa la gente en línea ahora que hace sólo unos años. También considere el creciente papel de la inteligencia de código abierto, como las publicaciones en las redes sociales, para ayudar a los militares a entender lo que está sucediendo en áreas clave donde podrían estar operando. El trabajo fue apoyado por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), a través de un programa llamado Computational Simulation of Online Social Behavior. El programa busca una «comprensión más profunda y cuantitativa del uso del entorno de información global por parte de los adversarios de lo que es posible actualmente usando los enfoques existentes».
No es la primera vez que los investigadores intentan aplicar el aprendizaje automático o la inteligencia artificial para detectar el sarcasmo en fragmentos cortos de texto, como las publicaciones en las redes sociales. Pero este método mejora los esfuerzos anteriores, muchos de los cuales se basaban en el entrenamiento de algoritmos para buscar demasiados indicios muy específicos seleccionados por los investigadores, como palabras que sugieren emociones específicas o incluso emojis. Esto hacía que el algoritmo pasara por alto muchos casos de sarcasmo que no tenían esas características.
Otros métodos utilizan redes neuronales para encontrar relaciones ocultas. Estos suelen dar mejores resultados, dijo Garibay. Pero es imposible saber cómo la red neuronal llega a la conclusión a la que llega. Garibay afirma que la principal ventaja de la nueva técnica es que funciona tan bien como otras redes neuronales en la detección del sarcasmo, pero permite al usuario volver atrás y ver la forma en la que el modelo alcanzó los resultados que obtuvo, algo que los servicios de inteligencia han dicho que es esencial para el uso de la inteligencia artificial en el contexto de la seguridad nacional.
El próximo gran desafío será manejar ambigüedades, coloquiales, argot, «y hacer frente a la evolución del lenguaje», dijo Garibay.
Fte. Defense One