Home Ciencia y Tecnología Opinión: El problema de sesgo de IA no se ha ido, sabes

Opinión: El problema de sesgo de IA no se ha ido, sabes

44
0

En su columna common, Jonathan McCrea, un ávido usuario del propio AI, aboga por no entregar la toma de decisiones a la máquina.

En lo que ahora se siente como hace mil millones de años, una vez di una charla en Electrical Picnic sobre los involuntarios, pero como lo vi, consecuencias inevitables de construir un automóvil autónomo. Esto fue mucho antes de los días de chatgpt, y Waymo fue solo un sueño.

Ten paciencia conmigo. Se basó en el problema del tranvía, un juego filosófico en el que los jugadores tienen que elegir qué grupo ahorrar en el caso de un escenario. Digamos que tiene un tren que se acerca a un interruptor de vía. Más allá del interruptor de pista, hay dos pistas. Si retira el interruptor, el tren cambiará de rumbo, y en esta pista, una de las personas que más odias en el mundo se acuesta. En su trayectoria precise, un extraño completo también se encuentra en las pistas que no pueden moverse, solo una persona aleatoria que no ha conocido.

Ahora tienes que decidir qué hacer y a quién salvar. Si no hace nada, el tren continuará en su curso y una persona inocente morirá. ¿Realmente puedes decirte a ti mismo que no hiciste nada malo? Es una herramienta bastante contundente, pero es difícil negar que, como juego, al menos puede insinuar nuestros valores subyacentes.

Limbo ético

Cuando construimos sistemas autónomos y les permitimos tomar decisiones por nosotros, entramos en un mundo extraño del limbo ético. Un automóvil autónomo obligado a tomar una decisión comparable para proteger al conductor o un peatón en un caso de un choque potencialmente deadly tendrá mucho más tiempo que un humano para elegir. Pero, ¿qué factores influyen en esa elección?

En la charla, sugerí que las normas culturales de las personas que codifican el automóvil podrían tener efectos sutiles sobre cómo el automóvil prioriza la vida en una situación de perder. ¿Qué pasa si la matriz de decisión se codificó en El Salvador, posiblemente el país más católico y pro-vida del mundo? Si un automóvil con IA pudiera decir que el conductor estaba embarazada, ¿influiría eso en cómo se comporta el automóvil? ¿De quién debe priorizar la vida en una colisión frontal?

Si ese escenario suena ridículo, probablemente tengas razón, al menos por ahora. Pero si no cree que los sistemas de valores están dando forma dramáticamente a nuestro mundo en la period de la IA, solo necesita escuchar las campanas de alarma que sonan en todo el mundo. Donde las redes sociales son sin duda una amenaza actual para los hechos y la transparencia, la IA tiene el potencial de ser un monstruo.

Tomemos, por ejemplo, la acusación en 2023 de que Meta estaba derribando contenido pacífico y pro-palestino. “Los ejemplos que cita incluyen contenido que se origina en más de 60 países, principalmente en inglés, y todo en ‘apoyo pacífico de Palestina, expresado de diversas maneras'”, escribió The Guardian En el momento. La compañía que dirige Fb e Instagram fue el foco de un informe de 51 páginas de Human Rights Watch que detalló una política generalizada de estrangular cualquier contenido que parecía apoyar a los palestinos, y provocó preguntas de la senadora Elizabeth Warren para explicar cómo y por qué el contenido fue eliminado por la compañía.

Sesgo humano y ai

El mes pasado, Grok, la IA desarrollada por Elon Musk, sufrió lo que solo en la mente más generoso de la psychological Contenido antisemita arrojado a través de la plataforma X durante demasiado tiempo, antes de que finalmente fuera “arreglado”. Una de las plataformas más populares para la discusión en el mundo, influyendo en el pensamiento y impulsado por una IA que escribió varias publicaciones alabando a Hitler queja antisemita y corrió con eso. En otras noticias, Musk tiene Acabo de anunciar Lanzaría un AI-Chatbot “amigable para los niños” que llama “Child Grok”. Usted, como dicen, literalmente no pudieron inventarlo.

No se trata solo de los sistemas de IA que dan forma a la narrativa, elevando algunas voces mientras calman otras. Las organizaciones compuestas por personas ordinarias de carne y sangre también lo están haciendo. El científico cognitivo irlandés Abeba Birhane, un investigador muy considerado de comportamiento humano, sistemas sociales e inteligencia synthetic responsable y ética se pidió recientemente que diera una nota clave para la IA para una buena cumbre international.

De acuerdo a Sus propios informes sobre Blueskyse solicitó una reunión solo unas horas antes de presentar su nota clave: “Pasé por una intensa negociación con los organizadores (durante más de una hora), donde pasamos por mis diapositivas y tuvimos que eliminar cualquier cosa que mencione ‘Palestina’ ‘Israel’ y reemplazar ‘genocidio’ con ‘crímenes de guerra’ … y una diapositiva que explica los datos ilegales de Huge Torrent por meta, también eliminaron. logotipos o cancelar mi charla “.

Es imposible decir si esta censura fue iniciada o no por las propias empresas, pero el resultado neto es el mismo: en una cumbre supuestamente destinada a usar AI para hacer un mundo mejor, las palabras críticas de un investigador negro e irlandés fueron silenciados por lo que solo se puede describir como razones políticas.

Ni siquiera hemos hablado sobre el sesgo inherente al sistema, para lo cual la UE está tratando desesperadamente de hacer que las grandes compañías de IA tengan en cuenta para evitar la ampliación a gran escala de las brechas en la desigualdad en toda Europa. Pero dejaré eso por otro día.

No se equivoquen al respecto, los sistemas de IA sobre los cuales nos estamos volviendo cada vez más dependientes tienen muchos defectos. Están abiertos a la manipulación, reflejan algunos de los peores de la sociedad humana y muy probablemente influyen en los usuarios en millones en línea. A medida que le damos a estos mismos sistemas más acceso y management sobre nuestras vidas, corremos el riesgo muy actual de entregar nuestra toma de decisiones a un agente de IA que algún día podría decidir llamarse Mechahitler.

En el problema del tranvía de IA, no solo estamos alejándonos de la palanca, sino que deja que alguien más lo tire por nosotros. La pregunta ya no es solo “¿a quién salvamos?” Pero “¿Quién determine a quién salvamos?” ¿Alguien ve un problema con eso?

No se pierda el conocimiento que necesita para tener éxito. Regístrese para el Informe diarioDigest de Silicon Republic de noticias de tecnología de ciencia ficción necesaria.

fuente