SINGAPUR – La start-up local BasisAI se está preparando para convertirse en regional con inteligencia artificial “responsable”, basada en una colaboración con Facebook y la Autoridad de Desarrollo de Medios de Infocomm (IMDA).
La solución de aprendizaje automático Bedrock de BasisAI actúa como auditor cibernético para los algoritmos de IA, lo que hace que sus procesos de toma de decisiones sean más transparentes y ayuda a los científicos de datos a identificar cuándo un algoritmo puede estar sesgado injustamente.
La compañía se asoció recientemente con Facebook e IMDA para guiar a otras 12 empresas emergentes en la región de Asia y el Pacífico para crear prototipos de algoritmos de IA éticos y eficientes en un programa de seis meses que finalizó el mes pasado.
Este programa fue parte de la iniciativa Open Loop de Facebook, que tiene como objetivo trabajar con los responsables políticos y las empresas de tecnología de todo el mundo para desarrollar marcos regulatorios para tecnologías emergentes como la IA.
BasisAI firmó una asociación con una de las 12 empresas emergentes, Nodeflux, una empresa de visión por computadora de Indonesia, para desarrollar aún más la explicabilidad del algoritmo de detección de objetos y reconocimiento facial de esta última.
“Realmente queremos asociarnos con empresas ambiciosas en servicios financieros, salud y transporte en toda la región”, dijo el director ejecutivo de BasisAI, Liu Fengyuan.
“Estamos viendo una mayor conciencia social sobre la IA responsable y creo que ahora más empresas están preocupadas por el riesgo de reputación de adoptar una IA que es una caja negra”.
En agosto pasado, por ejemplo, el Ministerio del Interior del Reino Unido abandonó un controvertido algoritmo de inteligencia artificial que se utilizó para procesar solicitudes de visa de inmigración después de que los activistas condenaron el algoritmo como “racista” por supuestamente favorecer a ciertas nacionalidades sobre otras.
El Ministerio del Interior no ofreció ninguna explicación de cómo funcionaba su herramienta de inteligencia artificial en ese momento, y el algoritmo fue descartado una semana antes de una revisión judicial de su toma de decisiones por parte de un tribunal.
La IA responsable también ha estado en el centro de una disputa en curso entre Google y sus empleados, que ha llevado a la salida de dos destacados investigadores de IA.
“Un ejemplo muy simple de inteligencia artificial responsable es ‘Porque tú miraste’ de Netflix, que te dice por qué miraste a Wonder Woman y por eso te recomendamos estos otros programas”, dijo Liu.
“Se quita algo del factor escalofriante cuando se le dice que (su historial de visualización) es un factor importante de por qué se le muestran estas recomendaciones, y no porque se esté rastreando algo más”.
Bedrock se lanzó en junio pasado, menos de dos años después de que Liu fundara BasisAI con los hermanos gemelos Linus y Silvanus Lee en 2018.
Liu fue anteriormente el director de la división de ciencia de datos e inteligencia artificial de la Agencia de Tecnología del gobierno, mientras que sus dos cofundadores con sede en EE. UU. Trabajaron en funciones de ciencia de datos en Twitter, Uber y Dropbox.
Actualmente, la compañía trabaja con DBS Bank, Accenture y PwC, entre otros socios.
El Sr. Liu desafió la percepción de que desarrollar una IA responsable es un paso adicional que implica un esfuerzo adicional.
“Si no hace nada, cuando llegue una auditoría, tendrá que buscar correos electrónicos y todo”, dijo.
“Pero si está verificando el código en (Bedrock) mientras trabaja, está haciendo el registro y la auditoría por usted.
“Se trata de comenzar con las bases adecuadas, donde la gobernanza no sea una ocurrencia tardía”.
Más transparencia sobre la ‘caja negra’ de la IA
Los algoritmos de inteligencia artificial (IA) están diseñados para que su trabajo pase desapercibido en segundo plano, realizando tareas laboriosas y tomando decisiones sencillas en nombre de sus diseñadores humanos.
Pero a medida que la adopción de la IA se aceleró y evolucionó, también lo hizo el escrutinio sobre los opacos procesos de toma de decisiones de dichos algoritmos, especialmente cuando las decisiones se perciben como prejuiciosas o injustas.
“A menudo (las empresas) no buscan iniciativas de inteligencia artificial debido a preocupaciones sobre la transparencia y la responsabilidad”, dijo el director ejecutivo de BasisAI, Liu Fengyuan. “Me dicen: ‘Oye, me estás dando una caja negra que no entiendo y no la voy a usar'”.
Ahí es donde entra en juego la solución Bedrock de BasisAI, para transformar “cajas negras” de IA en cajas de vidrio, donde el funcionamiento interno de los algoritmos se puede ver y explicar claramente.
Un científico de datos ejecuta su algoritmo utilizando el software Bedrock mientras codifica.
Bedrock luego señala todas las métricas, utilizadas por el algoritmo de IA para tomar sus decisiones, que pueden variar desde la edad y el género hasta el estado financiero y las alergias de salud, y también cuánto peso da cada métrica.
Por ejemplo, el algoritmo de inteligencia artificial de un banco podría haberle dado a un cliente una solicitud de préstamo una determinada puntuación de riesgo.
Con Bedrock, el equipo técnico del banco podría ver las métricas que determinaron el puntaje.
La edad del cliente puede haber aumentado la puntuación, mientras que la cantidad de problemas crediticios pasados puede haberla reducido. El personal del banco puede identificar y corregir cualquier sesgo no deseado en el algoritmo.
Liu dijo que los conocimientos de Bedrock están dirigidos a los tomadores de decisiones en empresas con experiencia técnica, como el científico de datos o el director de tecnología, por ahora.
“Pero con el tiempo, queremos que estos informes sean mucho más accesibles para la gente común, porque las decisiones no solo las toman los científicos de datos en jefe, sino también las personas en riesgo”, agregó.