Operai’s nuevos modelos Puede ser “de peso abierto”, pero un instituto líder de investigación de inteligencia synthetic cube que no son lo suficientemente abiertos, afirmando que el lanzamiento destaca la pregunta continua de lo que realmente significa la transparencia en la IA.
Esa es la vista de Hanna HajishirziDirector Senior de AI en el Seattle con sede en Seattle Instituto Allen para AI (AI2) y profesor en la Universidad de Washington.
En un comunicado después del anuncio de Openai, Hajishirzi dijo que AI2 está “emocionado de ver que OpenAi se ha unido a los esfuerzos para lanzar más modelos de ‘código abierto'”, pero agregó que el movimiento “enfoca el debate no resuelto sobre lo que constituye una apertura significativa en la IA”.
“En AI2, creemos que el progreso significativo en la IA se logra mejor en la intemperie, no solo con pesos abiertos, sino con datos abiertos, métodos de entrenamiento transparente, puntos de management intermedios desde la capacitación previa y la capacitación media, y las evaluaciones compartidas”, afirmó.
Por su parte, Operai se lanzó Detalles significativos sobre la arquitectura de los modelosincluido que son transformadores que usan un marco de mezcla de expertos (MOE) para reducir el número de parámetros activos necesarios para el procesamiento. La compañía también proporcionó detalles sobre las capas de los modelos, los parámetros totales y activos, y el número de expertos.
Sin embargo, sobre el tema de los datos de capacitación, Operai no lanzó su conjunto de datos patentado, señalando solo que tenía un “enfoque en STEM, codificación y conocimiento normal”.
Esto contrasta con la llamada de AI2 para datos abiertos como un pilar clave de transparencia.
El anuncio de OpenAI destacó un compromiso específico con la transparencia en un área: el proceso de razonamiento del modelo. La compañía dijo que intencionalmente evitó la supervisión directa del proceso de “cadena de pensamiento” (COT) del modelo para permitir a los investigadores monitorear mejor el mal uso y el engaño. Operai declaró su esperanza es que esto “brinde a los desarrolladores e investigadores la oportunidad de investigar e implementar sus propios sistemas de monitoreo de cuna”.
Operai también anunció que organizará un desafío de equipo rojo de $ 500,000 para alentar a los investigadores a encontrar nuevos problemas de seguridad. La compañía dijo que “de código abierto un conjunto de datos de evaluación basado en hallazgos validados, para que la comunidad en normal pueda beneficiarse de inmediato”.
En los EE. UU., Los padres de Fb Meta han defendido modelos de peso abierto desde que lanzó la primera de sus collection de LLAMA en 2023. Sin embargo, el CEO Mark Zuckerberg ha señalado que la compañía puede alejarse del código abierto para futuros modelos, citando posibles preocupaciones de seguridad.
El panorama competitivo para los modelos de peso abierto también se sacudió a principios de este año cuando la startup china Deepseek sorprendió a Silicon Valley con el lanzamiento de su tecnología AI de peso abierto, lo que demuestra la efectividad de los modelos de IA más baratos.
Hajishirzi de AI2 contrastó el lanzamiento de OpenAI con los modelos totalmente abiertos de AI2, como Olmoque incluyen herramientas que proporcionan visibilidad completa en sus datos de capacitación.
Hajishirzi llamó a esto un “momento essential para que la industria se alinee en estándares de apertura más profundos y verificables que fomentan la colaboración, aceleran la innovación y expanden el acceso para todos”.
Ella agregó: “Ahora más que nunca, debemos repensar cómo se desarrolla la IA, donde la transparencia, la reproducción y el amplio acceso son esenciales para formar las bases para la innovación sostenible, la confianza pública y la competitividad international en la IA”.