SAN FRANCISCO (La tarde) – En septiembre del año pasado, la unidad de nube de Google estudió el uso de inteligencia artificial (IA) para ayudar a una compañía financiera a decidir a quién prestar dinero.
Rechazó la idea del cliente después de semanas de discusiones internas, considerando que el proyecto era demasiado arriesgado desde un punto de vista ético, porque la tecnología de inteligencia artificial podría perpetuar prejuicios como los relacionados con la raza y el género.
Desde principios del año pasado, Google también ha bloqueado las nuevas funciones de inteligencia artificial que analizan las emociones, por temor a la insensibilidad cultural, mientras que Microsoft restringió el software que imita las voces e IBM rechazó la solicitud de un cliente de un sistema avanzado de reconocimiento facial.
Todas estas tecnologías han sido restringidas por paneles ejecutivos u otros líderes, según entrevistas con jefes de ética de inteligencia artificial de los tres gigantes tecnológicos de EE. UU.
Informados aquí por primera vez, sus vetos y las deliberaciones que los llevaron reflejan un impulso incipiente en toda la industria para equilibrar la búsqueda de sistemas de inteligencia artificial rentables con una mayor consideración por la responsabilidad social.
“Hay oportunidades y daños, y nuestro trabajo es maximizar las oportunidades y minimizar los daños”, dijo Tracy Pizzo Frey, quien forma parte de dos comités de ética en Google Cloud como directora responsable de IA.
Los juicios pueden ser difíciles.
Microsoft, por ejemplo, tuvo que equilibrar el beneficio de usar su tecnología de imitación de voz para restaurar el habla a las personas con discapacidades con los riesgos de permitir la suplantación política, dijo Natasha Crampton, directora responsable de inteligencia artificial de la compañía.
Los activistas de derechos humanos dicen que las decisiones con consecuencias potencialmente de gran alcance para la sociedad no deben tomarse solos.
Argumentan que los comités de ética no pueden ser verdaderamente independientes y su transparencia pública está limitada por presiones competitivas.
El Sr. Jascha Galaski, oficial de defensa de la Unión de Libertades Civiles para Europa, ve la supervisión externa como el camino a seguir, y las autoridades estadounidenses y europeas de hecho están estableciendo reglas para el área incipiente.
Si los comités corporativos de ética de la IA “realmente se volvieran transparentes e independientes, y todo esto es muy utópico, entonces esto podría ser incluso mejor que cualquier otra solución, pero no creo que sea realista”, dijo Galaski.
Las empresas dijeron que se les darían regulaciones claras sobre el uso de IA, y que esto era esencial para la confianza del público y del cliente, similar a las reglas de seguridad automotriz. Dijeron que también les interesaba económicamente actuar de manera responsable.
Pero quieren que las reglas sean lo suficientemente flexibles para mantenerse al día con la innovación y los nuevos dilemas que crea.
Entre las complejas consideraciones por venir, IBM dijo a Reuters que su junta de ética de IA ha comenzado a discutir cómo vigilar una frontera emergente: implantes y dispositivos portátiles que conectan las computadoras con el cerebro.
Estas neurotecnologías pueden ayudar a las personas con discapacidades a controlar el movimiento, pero plantean preocupaciones como la posibilidad de que los piratas informáticos manipulen sus pensamientos, dijo la directora de privacidad de IBM, Christina Montgomery.
Las empresas de tecnología reconocen que hace solo cinco años lanzaban servicios de inteligencia artificial, como chatbots y etiquetado de fotografías, con pocas garantías éticas, y luchaban contra el uso indebido o los resultados sesgados con actualizaciones posteriores. Pero a medida que crecía el escrutinio público y político de las fallas de la inteligencia artificial, Microsoft en 2017 y Google e IBM en 2018 establecieron comités de ética para revisar los nuevos servicios desde el principio.
Google dijo que se enfrentó a su dilema de préstamo de dinero en septiembre pasado, cuando una empresa de servicios financieros se dio cuenta de que la inteligencia artificial podía evaluar la credibilidad de las personas mejor que otros métodos.
El proyecto parecía adecuado para Google Cloud, cuya experiencia en el desarrollo de herramientas de inteligencia artificial que ayudan en áreas como la detección de transacciones anormales atrajo a clientes como Deutsche Bank, HSBC y BNY Mellon.
La unidad de Google anticipó que las puntuaciones de crédito basadas en inteligencia artificial podrían convertirse en un mercado de miles de millones de dólares al año y quería establecerse.
Sin embargo, su comité de ética de cerca de 20 gerentes, científicos sociales e ingenieros que analizan negocios potenciales votaron unánimemente en contra del proyecto en octubre.
El sistema de inteligencia artificial necesitaría aprender de los datos y estándares pasados, concluyó el comité, y por lo tanto corre el riesgo de repetir prácticas discriminatorias en todo el mundo contra las personas de color y otros grupos marginados.
Además, el comité, conocido internamente como Lemonaid, promulgó una política para omitir todos los negocios de servicios financieros relacionados con la calidad crediticia hasta que tales inquietudes pudieran resolverse.
Lemonaid había rechazado tres propuestas similares el año pasado, incluso de una compañía de tarjetas de crédito y un prestamista corporativo, y la Sra. Pizzo Frey y su contraparte de ventas estaban ansiosas por una decisión más amplia sobre el tema.
Google también dijo que su segundo comité de ética en la nube, conocido como Iced Tea, analizó este año un servicio lanzado en 2015 para clasificar las fotos de las personas según cuatro expresiones: alegría, tristeza, enojo y sorpresa.
La medida siguió a una decisión tomada el año pasado por el panel de ética de toda la empresa de Google, el Advanced Technology Review Council (ATRC), que prohíbe nuevos servicios relacionados con la lectura de emociones.
El ATRC, más de una docena de altos ejecutivos e ingenieros, ha determinado que inferir emociones puede ser insensible porque las señales faciales se asocian de manera diferente con los sentimientos en todas las culturas, entre otras razones, dijo Jen Gennai, fundadora y líder del equipo de Innovación. Responsable de Google .
Iced Tea ha bloqueado 13 emociones planificadas para la herramienta Cloud, incluida la vergüenza y la satisfacción, y es posible que pronto abandone el servicio en favor de un sistema que describa movimientos como fruncir el ceño y sonreír, sin intentar interpretarlos.
Microsoft, a su vez, ha desarrollado un software que puede reproducir la voz de alguien a partir de una pequeña muestra, pero el panel de Usos Sensibles de la empresa pasó más de dos años debatiendo la ética en torno a su uso y consultó con el presidente de la empresa Microsoft, Brad Smith, dijo Crampton. .
Ella dijo que el panel, expertos en áreas como derechos humanos, ciencia de datos e ingeniería, terminó dando luz verde para que Custom Neural Voice se lance completamente en febrero de este año. Pero impuso restricciones a su uso, incluido que se debe verificar el consentimiento de los sujetos.
La junta de inteligencia artificial de IBM, compuesta por unos 20 líderes de departamento, luchó con su propio dilema cuando, al inicio de la pandemia Covid-19, examinó una solicitud de un cliente para personalizar la tecnología de reconocimiento facial para detectar fiebres y cubrimientos faciales.
La Sra. Montgomery dijo que la junta, de la que es copresidenta, rechazó la invitación y concluyó que las verificaciones manuales serían suficientes con menos intromisión en la privacidad porque las fotos no se guardarían en ninguna base de datos de IA. Seis meses después, IBM anunció que descontinuaría su servicio de reconocimiento facial.
En un intento por proteger la privacidad y otras libertades, los legisladores de la Unión Europea y los EE. UU. Buscan controles de gran alcance sobre los sistemas de inteligencia artificial.
IBM rechazó la solicitud de un cliente de un sistema de reconocimiento facial avanzado. FOTO: La tarde
La Ley de Inteligencia Artificial de la UE, que se aprobará el próximo año, evitaría el reconocimiento facial en tiempo real en espacios públicos y requeriría que las empresas de tecnología examinen las aplicaciones de alto riesgo, como las que se utilizan en la contratación, la calificación crediticia y la aplicación de la ley.
El congresista estadounidense Bill Foster, que ha celebrado audiencias sobre cómo los algoritmos impulsan la discriminación en los servicios financieros y la vivienda, dijo que las nuevas leyes para gobernar la inteligencia artificial garantizarían un campo de juego equilibrado para los proveedores.
“Cuando le pide a una empresa que obtenga ganancias para cumplir con los objetivos sociales, ellos dicen: ‘¿Qué pasa con nuestros accionistas y competidores?’ Es por eso que necesita una regulación sofisticada “, dijo.
“Puede haber áreas que son tan sensibles que verá que las empresas de tecnología se mantendrán deliberadamente al margen hasta que haya reglas de tráfico claras”.
De hecho, algunos avances de la inteligencia artificial pueden simplemente quedarse en espera hasta que las empresas puedan abordar los riesgos éticos sin dedicar enormes recursos de ingeniería.
Después de que Google Cloud rechazó la solicitud de IA financiera personalizada en octubre pasado, el comité de Lemonaid le dijo al equipo de ventas que la unidad planea comenzar a desarrollar aplicaciones relacionadas con el crédito algún día.
Pero primero, la investigación sobre la lucha contra los sesgos injustos debe acompañar las ambiciones de Google Cloud de aumentar la inclusión financiera a través de tecnología “altamente sensible”, dijo. “Hasta entonces, no estamos en condiciones de implementar soluciones”.