Home Ciencia y Tecnología ¿Ya está en marcha la enriquecimiento de AI?

¿Ya está en marcha la enriquecimiento de AI?

47
0

“Enshittificacióntambién conocido como crapificación y Decadencia de la plataformaes un patrón en el que los productos y servicios en línea de dos lados disminuyen en calidad con el tiempo. Este neologismo fue acuñado por el escritor canadiense Cory Doctorow en 2022. ” (Wikipedia)

AI se encuentra actualmente en su period de la fiebre del oro. La abrumadora ola de herramientas (chatbots, copilotos y generadores de imágenes) se refiere como encontrar pepitas de oro dispersas en un río. Son revolucionarios, baratos o gratuitos, y ampliamente accesibles. Pero si la historia es una guía, esto no durará para siempre.

Para comprender hacia dónde se puede dirigir esto, rebobinemos.

El Web temprano una vez se sintió igualmente liberador. Avance rápido hasta hoy y encontraremos una net llena de anuncios disfrazados de contenido, pancartas de galletas, paredes de pago, basura optimizada por search engine marketing y clickbait manipulador, todos diseñados para extraer atención y dinero. Esta transformación no sucedió de la noche a la mañana. Fue el resultado gradual de las plataformas Priorizar las ganancias sobre la experiencia del usuario.

Entonces, ¿qué sucede cuando AI, como Web antes, comienza a priorizar las ganancias sobre las personas, a escala? El cambio ya está en marcha.

La desenfoque de las marcas

Think about que su asistente de IA se desliza sutilmente en sugerencias patrocinadas a mitad de respuesta. Usted hace una pregunta sobre bocadillos saludables, y “recomienda” una marca, porque esa marca pagó por la inclusión.

Peor aún, estos anuncios pueden no ser etiquetados. Como en Su (2013), donde el asistente de IA desarrolla intimidad emocional a través de una conversación pure, su asistente podría usar esa misma cercanía para empujar los productos, tan suave y personalmente, no se daría cuenta de que se está vendiendo. La manipulación se esconde detrás de la ilusión de la conexión.

La concept de una IA “recomendando” un producto por una tarifa no es un concepto futurista; Es un modelo de negocio precise bajo consideración.

Paredes de pago y management

Lo que es free of charge hoy podría fragmentarse y paredes de pago mañana. ¿Quieres acceso a concepts de alta calidad o un análisis más profundo? Eso costará más. Las respuestas libres pueden ser vagas, pesadas o limitadas al contenido a nivel de superficie.

Algunas compañías pueden despojar por completo a UX Visible, ofreciendo acceso solo a API por una tarifa- datos para alimentar a otros bots, no a los humanos.

Manipulación conductual

Más allá de los anuncios, la IA podría convertirse en una herramienta para sutiles empujes psicológicos, no solo para vender productos, sino darle la forma de opiniones. Tu asistente podría:

  • Bromea sobre su “teléfono obsoleto”, empujándolo a actualizar.
  • Teje una historia sobre unas vacaciones de ensueño (patrocinadas por una junta turística).
  • Reflexione agendas políticas o comerciales basadas en quien esté pagando.

Esta es una influencia invisible -Más difícil de detectar que los anuncios de banner o los pre-rolls de YouTube.

Monetización

Las suscripciones escalonadas podrían evolucionar a Crippleware, donde cuanto más pague, menos restricciones enfrentará. Los usuarios gratuitos pueden ver anuncios o experimentar un rendimiento más lento. ¿Quieres privacidad o respuestas sin censura? Pagar.

El precio dinámico podría activar – La IA conoce sus preferencias, ingresos y hábitos de gasto. Puede cobrar exactamente el máximo que sabe que está dispuesto a pagar.

Una tensión del mundo actual: el caso de la antrópica

Anthrope, un laboratorio de IA fundado por ex empleados de Openai, a menudo se ve como un atípico principalmente en la carrera hacia AI escalable. Su misión de seguridad, enfoque en la explicabilidad y el rechazo de las herramientas de entretenimiento adictivas lo han ganado una reputación de integridad en un mundo impulsado por la velocidad y las ganancias.

Pero la historia de Anthrope también ilustra cuán frágiles se vuelven esos valores bajo presión financiera, y por qué incluso los actores “buenos” pueden ser barridos en el ciclo de la envoltura.

De acuerdo a El economistaa pesar de su misión AI-Security-First, la compañía todavía necesita capital masivo para capacitar a sus modelos, lo que lo obliga a recurrir a los inversores en jurisdicciones cuestionables que no garantizan la seguridad y la protección de los datos.

Según Dario Amodei, cofundador y CEO de Anthrope:

“” Ninguna mala persona debería beneficiarse de nuestro éxito “es un principio bastante difícil para administrar un negocio”.

Esto resalta el compromiso entre valores y ganancias – Un impulsor central de la envolvente.

El enfoque ético de Anthrope actualmente se alinea con la demanda empresarial de IA confiable y explicable. Las empresas aprecian herramientas seguras y auditables, especialmente para los casos de uso de la misión crítica.

Pero esta alineación puede ser temporal. A medida que aumentan las demandas de monetización, el equilibrio entre seguridad y escala puede comenzar a erosionarse.

Mientras que Anthrope juega el juego largo, Openai y otros dominan la cuota de mercado a través de una productización más agresiva. La presión para mantenerse al día podría eventualmente empujar incluso a los jugadores más principales hacia las esquinas. La carrera hacia la cima puede convertirse rápidamente en una carrera hasta el fondo.

El inversor Ravi Mhatre cree que el enfoque de Anthrope será valioso cuando algo inevitablemente salga mal.

“Simplemente no hemos tenido el momento de ‘oh mierda’ todavía”, dijo.

Ese momento puede ser lo que expone los riesgos de priorizar el crecimiento sobre las barandillas, y si la seguridad primero escala.

Entonces … ¿podemos evitar la presagio de la IA?

Algunos usuarios en Reddit Hope modelos de suscripción evitará esto, pero otros los ven como solo un amortiguador temporal antes de que se intensifique. Unos pocos argumentan que de código abierto y marcos regulatorios son la única defensa actual.

Como dijo un comentarista:

“Necesitamos una responsabilidad authorized fiduciaria de los sistemas de IA para poner los intereses del usuario por encima de todo lo demás, aparte de las barandillas de seguridad”.

Pensamiento last

La pregunta no es si la IA puede ser envuelta: es si los mismos incentivos que corrompieron en Web en el pasado eventualmente hará lo mismo con la IA. Si la ganancia se convierte en el objetivo principal, la confianza del usuario y la utilidad se erosionarán, una característica monetizada a la vez.

fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here