[go: up one dir, main page]

Introducing G2.ai, the future of software buying.Try now
<strong>Tus clientes</strong> están hablando de <strong>tí</strong>.
Patrocinado
Tus clientes están hablando de .
Únete a la conversación
Imagen del Avatar del Producto
Gemma 3 1B

Por Google

Perfil no reclamado

Reclama el perfil de tu empresa en G2

Reclamar este perfil confirma que trabajas en Gemma 3 1B y te permite gestionar cómo aparece en G2.

    Una vez aprobado, puedes:

  • Actualizar los detalles de tu empresa y producto

  • Aumentar la visibilidad de tu marca en G2, búsquedas y LLMs

  • Acceder a información sobre visitantes y competidores

  • Responder a las reseñas de clientes

  • Verificaremos tu correo electrónico de trabajo antes de otorgar acceso.

<strong>Tus clientes</strong> están hablando de <strong>tí</strong>.
Patrocinado
Tus clientes están hablando de .
Únete a la conversación
This product hasn't been reviewed yet! Be the first to share your experience.
Escribir una Reseña

Gemma 3 1B Reseñas y Detalles del Producto

Detalles del producto Gemma 3 1B
<strong>Tus clientes</strong> están hablando de <strong>tí</strong>.
Patrocinado
Tus clientes están hablando de .
Únete a la conversación
Imagen del Avatar del Producto

¿Has utilizado Gemma 3 1B antes?

Responde algunas preguntas para ayudar a la comunidad de Gemma 3 1B

Gemma 3 1B Reseñas (0)

Las reseñas de G2 son auténticas y verificadas.

No hay suficientes reseñas de Gemma 3 1B para que G2 proporcione información de compra. A continuación, se muestran algunas alternativas con más reseñas:

1
Logo de StableLM
StableLM
4.8
(13)
StableLM 3B 4E1T es un modelo de lenguaje base solo de decodificación preentrenado en 1 billón de tokens de diversos conjuntos de datos en inglés y código durante cuatro épocas. La arquitectura del modelo está basada en transformadores con Embeddings de Posición Rotatoria parciales, activación SwiGLU, LayerNorm, etc.
2
Logo de Mistral 7B
Mistral 7B
4.2
(8)
Mistral-7B-v0.1 es un modelo pequeño, pero poderoso, adaptable a muchos casos de uso. Mistral 7B es mejor que Llama 2 13B en todos los puntos de referencia, tiene habilidades de codificación natural y una longitud de secuencia de 8k. Está lanzado bajo la licencia Apache 2.0, y lo hicimos fácil de implementar en cualquier nube.
3
Logo de bloom 560m
bloom 560m
5.0
(1)
4
Logo de granite 3.1 MoE 3b
granite 3.1 MoE 3b
3.5
(1)
5
Logo de granite 3.3 8b
granite 3.3 8b
(0)
6
Logo de bloom 7b1
bloom 7b1
(0)
7
Logo de Phi 3.5 mini
Phi 3.5 mini
(0)
8
Logo de MPT-7B
MPT-7B
(0)
MPT-7B es un transformador de estilo decodificador preentrenado desde cero en 1T tokens de texto en inglés y código. Este modelo fue entrenado por MosaicML. MPT-7B es parte de la familia de modelos MosaicPretrainedTransformer (MPT), que utilizan una arquitectura de transformador modificada y optimizada para un entrenamiento e inferencia eficientes. Estos cambios arquitectónicos incluyen implementaciones de capas optimizadas para el rendimiento y la eliminación de los límites de longitud de contexto al reemplazar los embeddings posicionales con Atención con Sesgos Lineales (ALiBi). Gracias a estas modificaciones, los modelos MPT pueden ser entrenados con alta eficiencia de rendimiento y convergencia estable. Los modelos MPT también pueden ser servidos eficientemente con tanto las tuberías estándar de HuggingFace como el FasterTransformer de NVIDIA.
9
Logo de Phi 3 Small 8k
Phi 3 Small 8k
(0)
Variante más pequeña del modelo Phi-3 con un contexto extendido de 8k tokens y capacidades de instrucción.
10
Logo de step-1 8k
step-1 8k
(0)
Mostrar más
Precios

Los detalles de precios para este producto no están disponibles actualmente. Visita el sitio web del proveedor para obtener más información.