La IA corre el riesgo de afianzar el racismo y el sexismo en Australia, advirtió el comisionado de derechos humanos, en medio del debate laboral interno sobre cómo responder a la tecnología emergente.
Lorraine Finlay cube que la búsqueda de ganancias de productividad de la IA no debe venir a expensas de la discriminación si la tecnología no está regulada adecuadamente.
Los comentarios de Finlay siguen a la senadora laborista Michelle Ananda-Rajah rangos para pedir que todos los datos australianos se “liberen” a las empresas tecnológicas para evitar que AI perpetúe los prejuicios en el extranjero y refleje la vida y la cultura australianas.
Ananda-Rajah se opone a una Ley de IA dedicada, pero cree que los creadores de contenido deben pagarse por su trabajo.
Registro: correo electrónico de noticias de AU Breaking
Las ganancias de productividad de la IA se discutirán la próxima semana en la cumbre económica del gobierno federal, ya que los sindicatos y los organismos de la industria generan preocupaciones sobre los derechos de autor y las protecciones de la privacidad.
Los grupos de medios y artes han advertido sobre el “robo desenfrenado” de la propiedad intelectual si las grandes empresas tecnológicas pueden tomar su contenido para capacitar a los modelos de IA.
Finlay dijo que la falta de transparencia en los conjuntos de datos en los que se están entrenando las herramientas de IA hace que sea difícil identificar qué sesgos puede contener.
“El sesgo algorítmico significa que el sesgo y la injusticia están integrados en las herramientas que estamos usando, por lo que las decisiones que resultan reflejarán ese sesgo”, dijo.
“Cuando combina sesgo algorítmico con sesgo de automatización, que es donde es más possible que los humanos confíen en las decisiones de las máquinas y casi reemplazan su propio pensamiento, existe un riesgo actual de que lo que realmente estamos creando es discriminación y sesgo en una forma en la que está tan arraigado, tal vez ni siquiera sepamos que está ocurriendo”.
La Comisión de Derechos Humanos ha abogado constantemente para una Ley de IA, reforzando la legislación existente, incluida la Ley de Privacidad y las rigurosas pruebas de sesgo en las herramientas de IA. Finlay dijo que el gobierno debería establecer con urgencia nuevas barandillas legislativas.
“Pruebas de sesgo y auditoría, asegurando una revisión adecuada de supervisión humana, usted [do] Necesita esa variedad de diferentes medidas en su lugar ”, dijo.
Existe una creciente evidencia de que hay un sesgo en las herramientas de IA en Australia y en el extranjero, en áreas como la medicina y el reclutamiento de empleo.
Un estudio australiano publicado en mayo encontró que los candidatos de trabajo fueron entrevistados por los reclutadores de IA corrieron el riesgo de ser discriminados si hablaban con un acento o vivían con una discapacidad.
Ananda-Rajah, quien period Un médico e investigador de IA antes de ingresar al Parlamento, dijo que period importante que las herramientas de IA recibieran capacitación en datos australianos o se arriesgan a perpetuar los sesgos en el extranjero.
Si bien el gobierno ha enfatizado la necesidad de proteger la propiedad intelectual, advirtió que no abrir datos nacionales significaría que Australia estaría “alquilando para siempre [AI] modelos de gigantes tecnológicos en el extranjero ”sin supervisión ni información sobre sus modelos o plataformas.
“La IA debe ser entrenada con la mayor cantidad de datos posible de una población lo más amplia posible o amplificará los prejuicios, potencialmente dañar a las mismas personas a las que debe servir”, dijo Ananda-Rajah.
“Necesitamos liberar nuestros propios datos para capacitar a los modelos para que nos representen mejor.
después de la promoción del boletín
“Estoy interesado en monetizar a los creadores de contenido mientras liberan los datos. Creo que podemos presentar una alternativa al saqueo y el saqueo del extranjero”.
Ananda-Rajah elevó la detección de cáncer de piel por IA como un ejemplo en el que se ha demostrado que las herramientas utilizadas para las pruebas tienen un sesgo algorítmico. Ananda-Rajah dijo que la forma de superar cualquier sesgo o discriminación contra ciertos pacientes sería capacitar a “estos modelos en los datos más diversos de Australia como sea posible”, con protecciones apropiadas para datos confidenciales.
Finlay dijo que cualquier liberación de datos australianos debe hacerse de manera justa, pero ella cree que el enfoque debería estar en la regulación.
“Tener datos diversos y representativos es absolutamente algo bueno … pero es solo una parte de la solución”, dijo.
“Necesitamos asegurarnos de que esta tecnología se implementa de una manera justa para todos y realmente reconoce el trabajo y las contribuciones que los humanos están haciendo”.
Una experta en IA en la Universidad de La Trobe e ex investigadora de datos en una compañía de IA, Judith Bishop, dijo que liberar más datos australianos podría ayudar a capacitar a las herramientas de IA de manera más adecuada, mientras que advertir las herramientas de IA desarrolladas en el extranjero utilizando datos internacionales pueden no reflejar las necesidades de los australianos, pero que period una pequeña parte de la solución.
“Debemos tener cuidado de que un sistema que se desarrolló inicialmente en otros contextos sea realmente aplicable para el [Australian] Población, que no confiamos en los modelos estadounidenses que han sido entrenados en los datos de los Estados Unidos ”, dijo Bishop.
La comisionada de ESAFETY, Julie Inman Grant, también está preocupada por la falta de transparencia en torno al uso de las herramientas de IA de datos.
En un comunicado, dijo que las empresas tecnológicas deben ser transparentes sobre sus datos de capacitación, desarrollar herramientas de informes y deben usar datos diversos, precisos y representativos en sus productos.
“La opacidad del desarrollo y el despliegue generativo de la IA es profundamente problemática”, dijo Inman Grant. “Esto plantea preguntas importantes sobre la medida en que LLMS [large language models] podría amplificar, incluso acelerar, sesgos dañinos, incluidas las normas de género estrechas o dañinas y los prejuicios raciales.
“Con el desarrollo de estos sistemas concentrados en manos de algunas compañías, existe el riesgo actual de que ciertos cuerpos de evidencia, voces y perspectivas puedan verse eclipsados o marginados en resultados generativos”.