Los modelos de lenguaje pequeños (SLM) son modelos de lenguaje de inteligencia artificial (IA) que están optimizados para la eficiencia, especialización y despliegue en entornos con recursos limitados y capacidad de cómputo restringida. Al igual que los modelos de lenguaje grandes (LLM), los SLM también están diseñados para entender, interpretar y generar salidas similares a las humanas a partir de una amplia gama de entradas. Aprovechando técnicas eficientes de aprendizaje automático (ML), arquitecturas simplificadas y conjuntos de datos especializados, estos modelos a menudo se reutilizan para realizar una serie de tareas seleccionadas para maximizar la eficiencia de los recursos. Los SLM pueden ser esenciales para organizaciones que requieren un despliegue rentable y rápido de modelos de IA.
Debido a sus arquitecturas optimizadas, los SLM pueden desplegarse en dispositivos de borde, plataformas móviles y sistemas fuera de línea, facilitando el despliegue accesible de IA. Los SLM difieren de los LLM, que se centran en modelos de lenguaje generales y completos que manejan tareas complejas y diversas en múltiples dominios. Los SLM están diseñados para ser reentrenados para maximizar la especialización y la eficiencia de los recursos, centrándose en aplicaciones específicas en lugar de en una inteligencia amplia.
Una diferencia clave entre los SLM y los LLM es su tamaño de parámetros, que es un indicador directo de su base de conocimiento y potencial de razonamiento. Los tamaños de parámetros de los SLM generalmente varían desde unos pocos millones hasta más de 10 mil millones. Mientras que los LLM tienen tamaños de parámetros que van desde 10 mil millones hasta billones de parámetros. En la práctica, algunos SLM también se derivan de LLM a través de métodos como la cuantización o la destilación, que reducen el tamaño del modelo para mayor eficiencia pero no cambian los datos de entrenamiento originales. Los SLM difieren de los chatbots de IA, que proporcionan la plataforma orientada al usuario, en lugar de los modelos fundamentales en sí mismos.
Para calificar para la inclusión en la categoría de Modelos de Lenguaje Pequeños (SLM), un producto debe:
Ofrecer un modelo de lenguaje compacto que esté optimizado para la eficiencia de recursos y tareas especializadas y sea capaz de comprender y generar salidas similares a las humanas
Contener 10 mil millones de parámetros o menos, mientras que los LLM superan este umbral de 10 mil millones de parámetros
Proporcionar flexibilidad de despliegue para entornos con recursos limitados, como dispositivos de borde, plataformas móviles o hardware de cómputo
Estar diseñado para la optimización específica de tareas a través de ajuste fino, especialización de dominio o entrenamiento dirigido para aplicaciones comerciales específicas
Mantener la eficiencia computacional con tiempos de inferencia rápidos, requisitos de memoria reducidos y menor consumo de energía en comparación con los LLM