El CEO de Openai, Sam Altman, está en Washington, DC, esta semana, para presionar al gobierno de los Estados Unidos por una regulación amistosa en torno al desarrollo y el uso de la IA. Los informes antes de la visita de Altman afirmaron que el CEO dejaría en claro a los políticos que ChatGPT ya es una herramienta increíblemente importante para los usuarios estadounidenses y mundiales por igual. Altman reconocería la amenaza de la IA a los empleos, pero se centraría en los beneficios a largo plazo de democratizar la IA, adoptando un enfoque de la carretera.
La agenda de Openai es obvia. La compañía necesita apoyo del gobierno para crear versiones aún mejores de ChatGPT en el camino a la superinteligencia. Eso significa cualquier cosa, desde incentivos para construir infraestructura de IA en los EE. UU. A la regulación de la IA de los laxos que respaldarían un progreso más rápido en el campo. El último punto en realidad contradice los comentarios de Altman en la Reserva Federal el martes.
El CEO admitió que está aterrorizado de hacer pasar por humanos ai, advirtiendo de una “disaster de fraude” de IA. También le preocupa que los actores maliciosos desarrollaran y hacer mal uso de la superinteligencia de IA antes de que el mundo pueda construir sistemas para protegerse.
¿Qué es una disaster de fraude de IA?
“Una cosa que me aterroriza es aparentemente todavía hay algunas instituciones financieras que aceptarán una impresión de voz como autenticación para que usted mueva mucho dinero o haga algo más: usted cube una frase de desafío, y simplemente lo hacen”, dijo Altman, por CNN. “Es una locura seguir haciendo … AI ha derrotado completamente la mayoría de las formas en que las personas se autentican actualmente, aparte de las contraseñas”.
Si bien ChatGPT ofrece un modo de voz avanzado que le permite hablar con la IA a través de la voz, no se puede usar para replicar la voz de una persona. Sin embargo, otros servicios de IA podrían respaldar dicha funcionalidad, lo que podría permitir el abuso. También hay una variedad de modelos de IA de código abierto que los actores maliciosos podrían instalar en sus dispositivos y luego descubrir formas de hacer que clonen las voces de las personas reales. Tales estafas basadas en IA existen, con atacantes que los usan para extraer información y dinero de víctimas desprevenidas.
Como advirtió Altman, no son solo nuestras voces que los malos actores podrían clonar con herramientas de IA. “Estoy muy nervioso de que tengamos una disaster de fraude inminente, significativa e inminente”, dijo Altman. “En este momento, es una llamada de voz; pronto será un video o una hora facetal que sea indistinguible de la realidad”.
Una vez más, ChatGPT no ofrece tal funcionalidad, ni otros chatbots. Pero la tecnología de IA para crear imágenes y movies realistas ya existe. Algunas herramientas incluso permiten que las personas creen movies a partir de una imagen fija: el VEO 3 de Google en Gemini es un ejemplo. Pero estos productos tienen protecciones incorporadas para prevenir escenarios como los que Altman está describiendo.
¿Qué quiere Operai?
Altman vocal sobre los peligros de la IA es algo para apreciar. No está pintando una imagen rosada donde la IA es la solución a todo. La IA puede ser mal utilizada con fines nefastos. Altman también dijo que la concept de actores maliciosos que abusan de la superinteligencia de IA antes de que el mundo pueda protegerse es una cosa que lo mantiene despierto por la noche.
Estas preocupaciones hacen las observaciones de Echo Altman al last de la transmisión en vivo del agente de Chatgpt de OpenAi la semana pasada. Explicó que el nuevo agente de IA abre la puerta al abuso. Si bien Operai ha incorporado protecciones a la función para evitar que los malos actores engañen a la IA para que revele información private sobre el usuario, siempre existe la posibilidad de que los ataques sofisticados se abran en el futuro.
A pesar de esos temores que inducen la pesadilla, OpenAi no aboga por una supervisión más fuerte del gobierno. Propuestas de Openai Para el plan de acción de IA de EE. UU. Llama para la regulación de los laxos para que las empresas de IA de EE. UU. puedan competir con rivales extranjeros, especialmente las empresas chinas. “Proponemos un enfoque holístico que permita una asociación voluntaria entre el gobierno federal y el sector privado, y neutraliza el beneficio potencial de la RPC de las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”.
Por ejemplo, Operai quiere que el gobierno de los Estados Unidos permita a las empresas de IA capacitar a los modelos fronterizos en materials con derechos de autor mientras obtiene los derechos de los creadores de contenido. Operai también ha pedido una regulación de exportación más estricta de la tecnología de IA, el soporte para mejorar la infraestructura y el gobierno de los Estados Unidos utilizando activamente productos de IA.
Cómo protegerse
Leyes de IA más estrictas que podrían evitar parte del abuso que Altman mencionó durante su entrevista en la Reserva Federal. El mundo podría no estar en el precipicio de una “disaster de fraude” con mejores leyes de IA para proteger a los usuarios. Por otro lado, las leyes de desarrollo de la IA de laxera en otras jurisdicciones aún permitirían la creación de herramientas que los malos actores pueden usar para hacer pasar por las personas.
Los usuarios de Web deben ser conscientes de las amenazas que posa la IA, ya sea que usen ChatGPT u otros chatbots. Deben evitar enviar datos personales y dinero a terceros sin verificar la autenticidad de sus reclamos. No paypal o Venmo Cash a alguien que cube ser un amigo o acquainted durante una llamada telefónica sin verificar si está usando AI para falsificar la voz o la apariencia de alguien. En esa nota, PayPal ya está utilizando AI para evitar estafas a través de pagos de PayPal y Venmo.
Además, no brinde información private de AI Chatbots, especialmente herramientas más avanzadas como ChatGPT Agent. Siempre participe en el proceso de realizar compras en línea, incluso si un chatbot agrega los productos a su cesta. Finalmente, manténgase informado. En el futuro, podríamos tener herramientas para demostrar a las instituciones financieras y de salud que usted es humano. Como señala CNN, Altman está respaldando dicha herramienta. Se llama El orbey debería ofrecer pruebas de humanidad en el mundo de la IA.