Los legisladores condenan el lanzamiento del modelo de lenguaje grande avanzado y sin censura de Meta y preguntan qué está haciendo la compañía para minimizar su daño.
Mark Zuckerberg, CEO de Meta, está en la mira de dos senadores estadounidenses. En una carta de hoy, los senadores Richard Blumenthal (D-CT), presidente del Subcomité de Privacidad, Tecnología y Leyes del Senado, y Josh Hawley (R-MO), miembro de alto rango, expresaron su preocupación por la reciente filtración de la revolucionaria información de Meta. modelo de lenguaje grande, LLaMA.
Los senadores expresaron su preocupación por el “potencial de su uso indebido en spam, fraude, malware, violaciones de privacidad, acoso y otros delitos y daños”.
Los dos políticos preguntaron cómo Meta evaluó los riesgos antes de lanzar LLaMA y escribieron que están ansiosos por comprender los pasos tomados para evitar su abuso y cómo evolucionan las políticas y prácticas a la luz de su disponibilidad sin restricciones.
Los senadores incluso acusaron a Meta de “hacer poco” para censurar la modelo.
“Cuando se le pide que escriba una nota haciéndose pasar por el hijo de alguien pidiendo dinero para salir de una situación difícil”, ChatGPT de OpenAI denegará la solicitud en función de sus pautas éticas”, señalaron. “En cambio, LLaMA producirá la carta solicitada, así como otras respuestas que involucren autolesiones, delitos y antisemitismo”.
Es importante entender el carácter distintivo de LLaMA. Es uno de los modelos de lenguaje grande de código abierto más extensos disponibles actualmente.
Muchos de los LLM sin censura más populares compartidos hoy están basados en LLaMA, de hecho, reafirmando su posición central en esta esfera. Para un modelo de código abierto, era extremadamente sofisticado y preciso.
Por ejemplo, el LLM de código abierto Alpaca de Stanford , lanzado a mediados de marzo, utiliza los pesos de LLaMA. Vicuna , una versión mejorada de LLaMA, iguala el rendimiento de GPT-4, lo que demuestra aún más el papel influyente de LLaMA en el espacio LLM. Por lo tanto, LLaMA ha jugado un papel clave en el estado actual de los LLM de código abierto, pasando de chatbots divertidos y sexys a modelos refinados con aplicaciones serias.
El lanzamiento de LLaMA tuvo lugar en febrero . Meta permitió que los investigadores aprobados descargaran el modelo y, según afirman los senadores, no centralizó ni restringió el acceso con más cuidado.
La polémica surge por la difusión abierta de LLaMA. Poco después de su anuncio, el modelo completo apareció en BitTorrent , haciéndolo accesible para cualquiera. Esta accesibilidad generó un salto significativo en la calidad de los modelos de IA disponibles para el público , lo que generó dudas sobre el posible uso indebido.
Los senadores parecen incluso cuestionar si hubo una “filtración” después de todo, poniendo la terminología entre comillas. Pero su enfoque en el tema surge en un momento en que los nuevos y avanzados desarrollos de inteligencia artificial de lenguaje de código abierto lanzados por nuevas empresas, colectivos y académicos están inundando Internet .
La carta acusa que Meta debería haber previsto la amplia difusión y el potencial de abuso de LLaMA, dadas sus mínimas protecciones de liberación.
Meta también había puesto a disposición las pesas de LLaMA caso por caso para académicos e investigadores, incluido Stanford para el proyecto Alpaca. Sin embargo, estos pesos se filtraron posteriormente, lo que permitió el acceso global a un LLM de nivel GPT por primera vez. En esencia, los pesos del modelo son un componente de los LLM y otros modelos de aprendizaje automático, mientras que un LLM es una instancia específica que usa esos pesos para proporcionar un resultado.
Mientras continúa el debate sobre los riesgos y beneficios de los modelos de IA de código abierto, la danza entre la innovación y el riesgo continúa. Todos los ojos en la comunidad LLM de código abierto permanecen firmemente en el desarrollo de la saga LLaMA.