¿Quién debe liderar el desarrollo de la IA: científicos de datos o los expertos en cada tema? Los líderes de los gobiernos y sus entornos debaten quienes, si los tecnólogos o los especialistas en cada materia, son los más adecuados para dirigir el desarrollo ético de la inteligencia artificial.
La construcción de un sistema de inteligencia artificial de calidad requiere un equipo multifuncional, formado por personas de diversos orígenes étnicos, geográficos y profesionales, incluyendo programadores, científicos de datos y especialistas en ética. Pero al formar ese equipo, ¿quién es la persona más indicada para dirigirlo?
Los avances en el aprendizaje de las máquinas y la IA están permitiendo que se tomen más decisiones por medio de algoritmos con menos interacción humana. Pero, permitir que las máquinas tomen decisiones, abre una letanía de cuestiones éticas, desde el sesgo inherente de las personas que desarrollan el algoritmo, hasta el prejuicio sistémico en los procesos que se están automatizando.
Para combatir estos problemas, una de las prioridades, si no la principal de los programas de IA, los equipos de desarrollo tienen que considerar estas cuestiones éticas desde el principio, y continuar lidiando con ellas durante la producción y la operación.
Chakib Chraibi, científico jefe de datos del National Technical Information Service (NTIS), en el Departamento de Comercio, sugirió un enfoque de cinco fases para manejar las cuestiones éticas a lo largo del ciclo del desarrollo de la IA.
«La primera fase es lo que estamos haciendo ahora: la concienciación», «necesitamos aprender más sobre la IA y la ética y los temas relacionados con ellas. He estado tratando de desarrollar muy rápidamente soluciones de IA, que nos han dado muchas oportunidades, para que se pueda ahorrar realmente ahorren dinero, ser más eficientes y más eficaces. Pero tenemos que ser cuidadosos acerca de cómo lo hacemos».
Las fases restantes incluyen la identificación de la intención específica del algoritmo que se está desarrollando; el diseño de la solución, en cuyo momento se deberá reunir un equipo multidisciplinar y diverso que sea representativo del problema que se está tratando de resolver; el análisis de los datos y la metodología para detectar sesgos no deseados; y la supervisión continua de los resultados y el ajuste adecuado de los datos de entrenamiento y del algoritmo.
Para dirigir estos esfuerzos de forma ética y efectiva, Chraibi sugirió que los científicos de datos, como él mismo, fueran la fuerza impulsora. «Los científicos de datos podrán dar una idea de lo malo que será utilizar un modelo de aprendizaje por máquina» si no se tienen en cuenta las consideraciones éticas, dijo.
Pero Paul Moxon, vicepresidente senior de arquitectura de datos en Denodo Technologies, dijo que su experiencia trabajando con el desarrollo de la IA en el sector financiero le ha dado una perspectiva diferente. «Las personas que plantearon las cuestiones éticas con los bancos, las originales, estaban el equipo legal y de ejecución, no los tecnólogos», dijo. «Los tecnólogos quieren ampliar los límites; quieren hacer lo que realmente se les da bien. Pero no siempre piensan en las consecuencias involuntarias de lo que están haciendo».
En opinión de Moxon, los científicos de los datos y otras funciones centradas en la tecnología deberían seguir centrándose en la tecnología, mientras que las funciones centradas en el riesgo, como las de los abogados y los responsables del cumplimiento, son más adecuadas para considerar efectos más amplios y no intencionados.
«A veces los científicos de los datos no siempre tienen la visión de cómo se podría abusar de algo. No cómo debería usarse sino cómo se podría abusar de ello», dijo.
«La última persona a la que pondría a cargo de algo así es a los científicos de datos», acordó Richard Eng, ingeniero jefe del Departamento de Ingeniería de Software Aplicado de la Corporación MITRE.
Al igual que con la banca, Eng ofreció la medicina como otro sector en el que los expertos en la materia, médicos y especialistas, son clave para comprender matices de los que los tecnólogos podrían no ser conscientes.
«Me he encontrado con esto una y otra vez en la medicina. Desde la perspectiva de la ciencia de los datos, se ve muy bien. Sensibilidad, especificidad, precisión: todo en un 90%. Genial, acabamos de ganar el Premio Nobel», dijo. «Bueno, no, no tiene sentido desde la perspectiva de la fisiopatología. … Necesitas esa experiencia para contrarrestar a un científico de datos».
Eng sugirió que el mejor líder para estos esfuerzos es «un empresario informado que entienda el dominio y el contexto y las consecuencias, las verdaderas consecuencias, de la respuesta equivocada».
Anil Chaudry, director de implementación de la IA para el Centro de Excelencia de la Administración de Servicios Generales de la IA, fue por una tercera vía. «Tiene que ser un director de programa fuerte con sentido común, eso es lo que realmente necesitas», dijo. «Eso puede ayudar a reunir a los científicos de datos y a la gente del sistema».
Mientras que los otros roles son críticamente importantes para crear herramientas de IA que funcionen y sean éticas, un buen director de programa sabrá cómo reunirlo todo de manera efectiva.
«El científico de los datos quiere arriesgarse de verdad y la persona que controla su posterior uso no quiere ningún riesgo. Y, en algún lugar, el gerente del programa tiene que equilibrar eso para proporcionar una capacidad», dijo Chaudry.
«Quiero un científico de datos», dijo Michael Hauck, un científico de datos que asesore al Departamento de Defensa. «La razón por la que digo esto es que el científico de datos, para mí, tiene todas estas habilidades. …la Administración necesita entender: No se toma la IA y se añade a la caja de herramientas de las cosas en su organización. En realidad, requiere una reingeniería de cómo se hacen el software y los sistemas.»
Y, esa es la cuestión.
Fte. Nextgov (Aaron Boyd)
Aaron Boyd es un periodista galardonado, editor senior de tecnología y eventos en Nextgov.
Sé el primero en comentar