SINGAPUR – Los ciudadanos deben estar en el centro del desarrollo de la inteligencia artificial (IA), no de la tecnología, y las personas deben ser tratadas de manera justa y bien representadas cuando se trata de su contribución a la capacitación en sistemas de IA, dijeron expertos el martes (6 de abril).
Al examinar tecnologías como la inteligencia artificial, los gobiernos deben comprender cuáles son los intereses de sus ciudadanos y regular en función de eso, dijo Vilas Dhar, presidente de la Fundación Patrick J. McGovern.
Dijo que las empresas de tecnología también deben “tratar a los consumidores como participantes en la creación y diseño de estas tecnologías”.
Si eso está en su lugar y la gente tiene una palabra real sobre la tecnología, tanto a nivel individual como a través de la sociedad civil, podría conducir a “un pacto social mucho más fundamental y nuevo para la era de la IA”, dijo Dhar, cuya fundación es Estados Unidos. Organización filantrópica estatal que promueve el uso de soluciones de datos e inteligencia artificial para un futuro justo.
Habló en un panel de discusión sobre Dar forma al futuro de la inteligencia artificial en la Cumbre de Gobernanza de Tecnología Global virtual organizada por el Foro Económico Mundial (WEF).
El panel incluyó oradores como el Dr. Haniyeh Mahmoudian, especialista en ética global de IA en la plataforma DataRobot. Fue moderado por la editora de tecnología de Straits Times, Irene Tham.
Las discusiones en la reunión virtual serán parte de las negociaciones cuando el WEF se reúna en Singapur en agosto.
Otro tema que se planteó el martes fue la importancia de garantizar que los datos utilizados para entrenar los sistemas de IA sean justos y representativos de las personas.
El panelista Mark Brayan, director ejecutivo de la empresa australiana de datos de inteligencia artificial Appen, dijo que si los datos recopilados para el entrenamiento de inteligencia artificial están sesgados, la inteligencia artificial también lo estará.
Por ejemplo, si solo se utilizan voces masculinas para construir un producto de reconocimiento de voz, la IA resultante desarrollada para el producto no funcionará tan bien cuando escuche voces femeninas.
“La integridad y la equidad de los conjuntos de datos son un factor importante para la inteligencia artificial”, dijo Brayan. “Pero hay trabajo por hacer en esta área porque es muy inconsistente en todo el mundo y en todas las jurisdicciones”.
Panelistas hablando en una discusión sobre Dar forma al futuro de la inteligencia artificial en la Cumbre de Gobernanza de Tecnología Global Virtual del WEF el 6 de abril de 2021. FOTO: WEFORUM.ORG
La justicia también puede ser uno de varios factores considerados en las regulaciones de IA.
Sobre lo que se necesita para que los gobiernos desarrollen leyes para proteger a las personas del impacto dañino de la IA, el Dr. Jason Matheny, asistente asistente del presidente estadounidense Joe Biden para tecnología y seguridad nacional, señaló los principios de IA establecidos por la Organización para la Economía Cooperación y Desarrollo (OCDE).
La OCDE dijo que los principios de positividad, equidad, transparencia, solidez y responsabilidad son necesarios, pero individualmente, son insuficientes, dijo el Dr. Matheny.
“Sin embargo, colectivamente describen lo que queremos que logren o apunten nuestros sistemas de IA”, dijo, y agregó que la Casa Blanca y los gobiernos de otros lugares están examinando las regulaciones de IA.
“El trabajo más importante es cómo armonizar nuestros esfuerzos para incorporar estos principios en la ley”.
También se necesita la colaboración internacional para desarrollar estándares técnicos para hacer que los sistemas de IA sean seguros porque, en este momento, tales estándares no existen, agregó.
Pero, al final del día, puede haber una consideración básica cuando se trata de IA: los niños.
En la sesión de clausura, Fayaz King, subdirector ejecutivo de resultados de campo e innovación del Fondo de las Naciones Unidas para la Infancia (Unicef), dijo que su organización tiene una política de orientación de IA para niños, que se ha desarrollado con Finlandia.
Entre otras cosas, define cómo las políticas y los sistemas de IA deben tener como objetivo proteger a los niños.
“Es alentador ver que otros gobiernos se están dando cuenta de esto, adoptándolo y poniéndolo en las políticas nacionales”, dijo King. “Si la IA funciona para los niños, funcionará para todos”.