Home Ciencia y Tecnología Desde el aprendizaje federado hasta la IA native: los riesgos y las...

Desde el aprendizaje federado hasta la IA native: los riesgos y las oportunidades de resolver el desafío de los datos

44
0

Han pasado más de dos años desde que Operai lanzó ChatGPT, abriendo una ‘carrera armamentista’ tecnológica entre creadores de varias soluciones generativas de inteligencia synthetic (IA). Principalmente basado en los avances en modelos de aprendizaje automático elementary (ML) que pueden realizar diversas tareas creativas, desde la comprensión semántica y la generación de contenido hasta la creación de imágenes de alta calidad, estas tecnologías dispararon a sus proveedores entre las entidades comerciales privadas más valiosas.

A pesar del éxito comercial y la amplia adopción, la cuestión de encontrar la mejor manera de capacitar a estos modelos, los problemas legales, morales y técnicos de los datos, sigue siendo un elefante en la sala. Algunos desarrolladores de IA están dolorosamente de puntillas sobre los desafíos de privacidad y propiedad de datos, mientras que otras (especialmente las grandes y poderosas empresas) simplemente ignoran estos problemas, priorizando la “innovación”.

Recientemente, muchos expertos en IA comenzaron a hablar sobre el aprendizaje federado, la IA Edge y la IA native como alternativas factibles para resolver los problemas de datos confidenciales. Sin embargo, estos enfoques tienen sus propios riesgos, relacionados con los mismos problemas que deben resolver: complejidad tecnológica y calidad de datos, privacidad y seguridad.

Dejando los datos donde pertenece

El aprendizaje federado es una técnica ML distribuida (descentralizada) que permite a los modelos de capacitación al trasladar el proceso de capacitación a donde están los datos, en lugar de recopilar y mover los datos al lugar de capacitación (el servidor central). El taladro es sencillo: un desarrollador inicializa los parámetros del modelo en el servidor central y los envía a nodos de clientes conectados (otros servidores, dispositivos de borde, dispositivos de consumo inteligentes, and so forth.), donde el modelo international está capacitado con datos locales.

Después de completar la capacitación, los nodos del cliente devuelven los parámetros actualizados al servidor central, donde se combinan promediando los resultados, un proceso llamado “agregación”. Si hubiera rastros de información private identificable, deberían perderse en el proceso. La comunicación entre nodos se lleva a cabo a través de un cifrado especial, que agrega otra capa de seguridad.

Los datos confidenciales (ya sean datos privados o secretos comerciales) están protegidos por varias regulaciones en todos los países, lo que hace que sea imposible mover esos datos de un lugar a otro si la compañía quiere capacitar a sus modelos ML de una manera centralizada y tradicional. Como tal, Federated ML promete resolver los problemas de datos más apremiantes: las dificultades para usar datos privados de forma segura y trasladar cualquier información confidencial de un régimen authorized a otro.

Otro beneficio proviene de los ahorros de costos. En el caso de la capacitación ML centralizada tradicional, el volumen de datos y los costos de almacenamiento resultantes podrían ser insoportables para los desarrolladores de IA más pequeños, solo piense en la masa de datos recopilados por dispositivos de borde, como cámaras y sensores. La mayoría de estos datos ni siquiera serían útiles. Por lo tanto, el aprendizaje federado scale back ciertos costos de desarrollo y permite el uso de datos más diversos, lo que podría dar como resultado una mejor precisión del modelo.

Los casos de uso para el aprendizaje federado son fáciles de imaginar. La ML descentralizada puede ayudar a capacitar un sistema de IA utilizado para el diagnóstico médico, que necesita combinar registros de salud sensibles de diferentes instituciones o países. O bien, puede beneficiar a un banco internacional que capacita un modelo de detección de fraude en los datos agregados por sus sucursales. Sin embargo, el efecto más inmediato y beneficioso del uso del aprendizaje federado podría estar para empoderar a los avances adicionales en el campo de la IA native (en el dispositivo).

Mumbo-jumbo conceptual

El aprendizaje federado, la IA native y la IA Edge son conceptos relacionados que tienen algunas diferencias matizadas, por lo que para el principio, es necesario aclarar qué significa qué. El aprendizaje federado es un enfoque descentralizado para ML, que no implica compartir datos sin procesar. El modelo ML está capacitado en colaboración en conjuntos de datos distribuidos: los nodos de entrenamiento pueden ser dispositivos diferentes o servidores diferentes.

Edge AI se ejecuta directamente en servidores o dispositivos de borde, como IoT, máquinas industriales y AV, sin la conexión necesaria con un grupo más grande de servidores en la nube, reduciendo así los costos computacionales directos. La esencia de Edge AI está tomando decisiones en tiempo actual que se infieren del dispositivo en sí, sin aprendizaje colaborativo y intercambio de datos. En algunos casos, el modelo se puede capacitar utilizando técnicas de aprendizaje federadas, pero esto tampoco es necesario. El transporte, la logística, la defensa (piense en los drones autónomos) y el mantenimiento son las industrias principales que se benefician de las aplicaciones de IA Edge.

Finalmente, la IA native (en el dispositivo) es un concepto intermedio entre los dos. La IA native resume cualquier sistema que no dependa de servidores externos: puede ser un dispositivo de borde, una computadora o un servidor privado. No necesariamente toma decisiones en tiempo actual, y puede funcionar fuera de línea y en línea. Los casos de uso son diversos: los ejemplos van desde Apple Neural Engine, que está integrado en los chips inteligentes avanzados de Apple para realizar tareas como ID de cara, mejora de imágenes y sugerencias Siri, hasta Meta’s Llama Structure, que tiene versiones optimizadas para ejecutar en computadoras locales.

Ejecutar algoritmos directamente en dispositivos ayuda a mantener la inferencia en tiempo actual sin retrasos y conserva la privacidad de los datos. Además, la IA native se puede desarrollar utilizando técnicas de aprendizaje federado, y la combinación de ambos podría generar inmensos beneficios, tanto en términos de eficiencia como de privacidad de datos.

Trayendo IA a nuestros dispositivos: los profesionales

Tanto la IA native como el borde son principalmente productos de la informática ubicua, una tecnología que permite que los objetos cotidianos realicen tareas computacionalmente avanzadas mediante la explotación de sensores y microprocesadores de alta calidad con alta potencia computacional. El crecimiento de las capacidades de CPU/GPU en el dispositivo abrió la posibilidad de ejecutar algoritmos de IA localmente. Las principales compañías tecnológicas comprendieron rápidamente que este es el próximo bote de oro que les ofrece la oportunidad de acercar la IA a la vida cotidiana y comercializar los productos de IA más fácilmente. Además, quedó claro que estos pequeños dispositivos poseen una enorme cantidad de datos valiosos.

Sin embargo, si se capacitan o finalmente solo en los datos locales, la IA en el dispositivo se volvería muy limitada en algún momento, lo que ocurre por algunas razones. Primero, los modelos locales aún son menos potentes debido a los límites de {hardware}, y eso a menudo afecta la precisión y la usabilidad. En segundo lugar, dado que los datos que usa la IA native no se comparte, tiene un alcance muy limitado, lo que impulsa la ventana de contexto del modelo. Estas principales deficiencias se pueden aliviar combinando los beneficios de la IA native con enfoques de aprendizaje automático federado.

Think about aplicaciones móviles diseñadas para ayudar a las personas a aliviar la ansiedad, tomar decisiones de inversión private, obtener asesoramiento de salud o simplemente aprender a jugar al ajedrez. Cualquiera de estas funciones podría hacerse mucho más avanzada y útil al combinar constantemente datos de miles o incluso millones de otros dispositivos locales. Los datos sin procesar en sí no se compartirían, pero el modelo AI podría obtener actualizaciones oportunas basadas en la experiencia de múltiples usuarios.

Para resumir, la capacitación y el fino de los modelos de IA localmente y el uso del aprendizaje federado para combinar datos de diferentes fuentes (los dispositivos o datos de otros usuarios recopilados de la Net) sin comprometer su naturaleza confidencial o trasladarlo de un régimen authorized a otro, puede convertirse en un gran salto de los problemas de datos que persiguen a los desarrolladores de IA. Sin embargo, estos enfoques traen sus propias preocupaciones de seguridad y seguridad de datos que deben tenerse en cuenta.

Trayendo IA a nuestros dispositivos: los contras

El riesgo de filtrar los parámetros, combinado con ataques a los nodos de los clientes por parte de actores maliciosos (a veces que usan nodos maliciosos para corromper todo el modelo), es probablemente el peor riesgo que implica el aprendizaje federado. Por lo tanto, el aprendizaje federado todavía requiere un cifrado robusto. Además, existen preguntas altamente técnicas y sin resolver las mejores técnicas de “promedio” que ocultarían eficientemente toda la información confidencial proveniente de dispositivos locales sin comprometer la precisión del modelo.

Además, mientras resuelve el problema de los altos costos computacionales, el aprendizaje federado tiene un gran problema de coordinación y comunicación de nodos. Las variables distribuciones de datos y la calidad de los nodos pueden afectar el rendimiento y la confiabilidad del modelo international. Por lo tanto, existe una pregunta complicada de cómo tamizar los datos “buenos” y mitigar la influencia de las malas entradas. Es especialmente importante en el caso de la IA native, donde la toma de decisiones a menudo ocurre en tiempo actual.

Por último, pero no menos importante, las técnicas de aprendizaje federadas no mitigan el riesgo de resultados maliciosos o sesgo de datos. En realidad, muchos procesos de aprendizaje separados en diferentes nodos pueden exacerbarlo, ya que esos procesos localizados son prácticamente una caja negra. A partir de hoy, no existe una solución viable para este problema, y la cuestión de cómo distribuir la responsabilidad a lo largo de la cadena de valor de la IA sigue siendo una zona gris authorized.

A pesar de los beneficios considerables, el empleo de técnicas de aprendizaje federadas para el desarrollo de la IA en normal y la IA native en specific plantea varios riesgos y desafíos potenciales, que van desde la complejidad del modelo y la heterogeneidad de los datos hasta la misma privacidad de datos antiguos, que se pueden violar accidentalmente (mediante filtración de parámetros del modelo) o al lanzar ataques en nodos de clientes y envenenar el modelo international.

Sin embargo, estos desafíos de ninguna manera deberían evitar que la industria de la IA utilice técnicas de aprendizaje federadas. A partir de hoy, no hay mejor manera de cumplir con las regulaciones de datos, a excepción de una, sin usar datos confidenciales. Esto es utópico (o incluso distópico), ya que significa que las áreas vitales del desarrollo de la IA, como la atención médica y los servicios financieros, no tendrán un camino a seguir en los próximos años.

Actualmente, muchos proveedores intentan eludir el problema utilizando datos sintéticos. Sin embargo, cuando los aspectos críticos (salud y seguridad) están en juego, la calidad de los datos debe ser la prioridad número uno al desarrollar cerebros artificiales.

fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here