SINGAPUR РLos ciudadanos deben estar en el centro del desarrollo de la inteligencia artificial (IA), no de la tecnología, y las personas deben ser tratadas de manera justa y bien representadas cuando se trata de su contribución a la capacitación en sistemas de IA, dijeron expertos el martes (6 de abril).

Al examinar tecnologías como la inteligencia artificial, los gobiernos deben comprender cuáles son los intereses de sus ciudadanos y regular en función de eso, dijo Vilas Dhar, presidente de la Fundación Patrick J. McGovern.

Dijo que las empresas de tecnolog√≠a tambi√©n deben ¬ętratar a los consumidores como participantes en la creaci√≥n y dise√Īo de estas tecnolog√≠as¬Ľ.

Si eso est√° en su lugar y la gente tiene una palabra real sobre la tecnolog√≠a, tanto a nivel individual como a trav√©s de la sociedad civil, podr√≠a conducir a ¬ęun pacto social mucho m√°s fundamental y nuevo para la era de la IA¬Ľ, dijo Dhar, cuya fundaci√≥n es Estados Unidos. Organizaci√≥n filantr√≥pica estatal que promueve el uso de soluciones de datos e inteligencia artificial para un futuro justo.

Habló en un panel de discusión sobre Dar forma al futuro de la inteligencia artificial en la Cumbre de Gobernanza de Tecnología Global virtual organizada por el Foro Económico Mundial (WEF).

El panel incluyó oradores como el Dr. Haniyeh Mahmoudian, especialista en ética global de IA en la plataforma DataRobot. Fue moderado por la editora de tecnología de Straits Times, Irene Tham.

Las discusiones en la reuni√≥n virtual ser√°n parte de las negociaciones cuando el WEF se re√ļna en Singapur en agosto.

Otro tema que se planteó el martes fue la importancia de garantizar que los datos utilizados para entrenar los sistemas de IA sean justos y representativos de las personas.

El panelista Mark Brayan, director ejecutivo de la empresa australiana de datos de inteligencia artificial Appen, dijo que si los datos recopilados para el entrenamiento de inteligencia artificial están sesgados, la inteligencia artificial también lo estará.

Por ejemplo, si solo se utilizan voces masculinas para construir un producto de reconocimiento de voz, la IA resultante desarrollada para el producto no funcionar√° tan bien cuando escuche voces femeninas.

¬ęLa integridad y la equidad de los conjuntos de datos son un factor importante para la inteligencia artificial¬Ľ, dijo Brayan. ¬ęPero hay trabajo por hacer en esta √°rea porque es muy inconsistente en todo el mundo y en todas las jurisdicciones¬Ľ.


Panelistas hablando en una discusión sobre Dar forma al futuro de la inteligencia artificial en la Cumbre de Gobernanza de Tecnología Global Virtual del WEF el 6 de abril de 2021. FOTO: WEFORUM.ORG

La justicia también puede ser uno de varios factores considerados en las regulaciones de IA.

Sobre lo que se necesita para que los gobiernos desarrollen leyes para proteger a las personas del impacto da√Īino de la IA, el Dr. Jason Matheny, asistente asistente del presidente estadounidense Joe Biden para tecnolog√≠a y seguridad nacional, se√Īal√≥ los principios de IA establecidos por la Organizaci√≥n para la Econom√≠a Cooperaci√≥n y Desarrollo (OCDE).

La OCDE dijo que los principios de positividad, equidad, transparencia, solidez y responsabilidad son necesarios, pero individualmente, son insuficientes, dijo el Dr. Matheny.

¬ęSin embargo, colectivamente describen lo que queremos que logren o apunten nuestros sistemas de IA¬Ľ, dijo, y agreg√≥ que la Casa Blanca y los gobiernos de otros lugares est√°n examinando las regulaciones de IA.

¬ęEl trabajo m√°s importante es c√≥mo armonizar nuestros esfuerzos para incorporar estos principios en la ley¬Ľ.

También se necesita la colaboración internacional para desarrollar estándares técnicos para hacer que los sistemas de IA sean seguros porque, en este momento, tales estándares no existen, agregó.

Pero, al final del d√≠a, puede haber una consideraci√≥n b√°sica cuando se trata de IA: los ni√Īos.

En la sesi√≥n de clausura, Fayaz King, subdirector ejecutivo de resultados de campo e innovaci√≥n del Fondo de las Naciones Unidas para la Infancia (Unicef), dijo que su organizaci√≥n tiene una pol√≠tica de orientaci√≥n de IA para ni√Īos, que se ha desarrollado con Finlandia.

Entre otras cosas, define c√≥mo las pol√≠ticas y los sistemas de IA deben tener como objetivo proteger a los ni√Īos.

¬ęEs alentador ver que otros gobiernos se est√°n dando cuenta de esto, adopt√°ndolo y poni√©ndolo en las pol√≠ticas nacionales¬Ľ, dijo King. ¬ęSi la IA funciona para los ni√Īos, funcionar√° para todos¬Ľ.

Nuestra puntuación
¬°Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)