Contacto (español):
Juan OchoaContacto (inglés):
Jeff Karoub
Teléfono: 734-764-8191
ANÁLISIS DE EXPERTO
A medida que la inteligencia artificial generativa se vuelve ubicua, la experta de la Universidad de Michigan, Shobita Parthasarathy, afirma que las revisiones técnicas de la mecánica pueden abordar algunos de los daños incorporados en la tecnología hasta hoy.
Sin embargo, argumenta, “siempre estará detrás de las desigualdades emergentes, a menos que vayan acompañadas de cambios más amplios en el sistema de innovación”.
Parthasarathy, profesora y directora del Programa de Ciencia, Tecnología y Política Pública de la Escuela Ford de Políticas de la U-M, formó parte de un grupo interdisciplinario de expertos convocados por la Academia Nacional de Ciencias para explorar los desafíos emergentes planteados por el uso de la IA en la investigación y para trazar una ruta para la comunidad científica.
Los trabajos de investigación del grupo se publicaron recientemente en la revista Issues in Science and Technology como una serie titulada “Estrategias para gobernar la IA de manera efectiva“. En colaboración con Jared Katzman, estudiante de doctorado en la Escuela de Información y estudiante del certificado de posgrado STPP, Parthasarathy escribió un artículo sobre cómo prevenir y abordar las desigualdades integradas en la IA.
El panel completo también publicó un editorial en las Actas de la Academia Nacional de Ciencias, “Protegiendo la Integridad Científica en una Era de IA Generativa“, que articula cinco principios para el uso de la IA en la investigación científica.
“En los últimos meses, la IA generativa se ha vuelto ubicua”, dijo Parthasarathy. “En el proceso, sus limitaciones han comenzado a revelarse, desde producir resultados incorrectos y peligrosos, negar el crédito a creadores y pensadores, hasta el uso de recursos naturales significativos.
“La equidad es un problema particularmente grave. Basada en gran medida en datos angloamericanos, la tecnología reproduce sesgos históricos y culturales—y a menudo raciales. Depende del trabajo de trabajadores mal pagados, a menudo en países de bajos ingresos, para categorizar y etiquetar datos y publicaciones en redes sociales a menudo violentas. Y su diseño y funciones tienden a reflejar las prioridades de quienes las construyen—un grupo particularmente homogéneo.
“Para abordar estos problemas, Jared Katzman y yo argumentamos que necesitamos reconsiderar el sistema de innovación en IA, centrándonos en las necesidades, perspectivas y conocimientos de las comunidades marginadas. Estas comunidades necesitan estar empoderadas para dar forma al diseño de estas tecnologías, incluyendo los problemas que intenta resolver, cómo se identifica y categoriza los datos, cómo se valora y compensa a los participantes en este trabajo y cómo se evalúan las tecnologías emergentes.
“Además, otros que tienen una amplia experiencia en las relaciones entre tecnología y sociedad, incluidos científicos sociales, humanistas y abogados, necesitan participar más activamente en el sistema de innovación. Mientras tanto, los desarrolladores de IA necesitan ser entrenados para ser empáticos y humildes, y entender la experiencia que todos estos expertos adicionales aportan.
“Finalmente, los gobiernos necesitan incorporar evaluaciones de los impactos de equidad en sus marcos regulatorios”.
Escrito por Jeff Karoub de Michigan News, adaptado al Español por Juan Ochoa de Michigan News.