Crear Límites de protección sólidos para la IA generativa
Detectar y bloquear contenidos violentos, de odio, sexuales y de autolesión. Configure umbrales de gravedad para su caso de uso específico, y cumpla las directivas de IA responsables.
Crear filtros de contenido únicos y adaptados a sus necesidades mediante categorías personalizadas. Entrene rápidamente una nueva categoría personalizada proporcionando ejemplos del contenido que necesita bloquear.
Proteja sus aplicaciones de IA contra ataques de inyección puntual e intentos de liberarlas. Identifique y mitigue las amenazas directas e indirectas con escudos rápidos.
Identifique y corrija las alucinaciones generativas de la IA y asegúrese de que los resultados son fiables, precisos y se basan en datos con la detección de fundamentos.
Desarrollo de aplicaciones de IA con seguridad integrada
Detecte y mitigue el contenido nocivo en entradas y salidas generadas por el usuario y por la IA, incluidos texto, imágenes y medios mixtos, todo ello con la Seguridad del contenido de Azure AI.
Casos de uso
Proteja sus aplicaciones de IA
Desarrollar límites de protección para aplicaciones de IA generativa
Utilice la IA para supervisar los contenidos generados por personas
Seguridad
Seguridad y conformidad integradas
34 000
Ingenieros equivalentes a tiempo completo dedicados a iniciativas de seguridad en Microsoft.
15 000
Partners con experiencia especializada en seguridad.
>100
Certificaciones de cumplimiento, incluidas más de 50 específicas para regiones y países de todo el mundo.
Cree e innove más rápido con los productos Azure AI
Utilice la Seguridad del contenido de Azure AI con otros productos de Azure AI para crear límites de seguridad avanzados para la AI generativa o para desarrollar soluciones integrales con herramientas de IA responsables integradas.
Azure OpenAI
Compile su propio copiloto y aplicaciones de IA generativa mediante modelos de lenguaje y de visión de vanguardia.
Vea cómo los clientes protegen sus aplicaciones mediante la Seguridad del contenido de Azure AI
"El Departamento de Educación de Australia del Sur puso en marcha un bot de chat educativo impulsado por IA generativa para incorporar de forma segura la tecnología de IA a las aulas."
"ASOS utiliza la IA generativa para mejorar la experiencia de sus clientes, permitiendo a los usuarios descubrir nuevos looks de moda sin esfuerzo. La Seguridad del contenido de Azure AI ayuda a garantizar interacciones y salidas de alta calidad."
"Unity ha desarrollado Muse Chat para mejorar su proceso de creación de juegos. Para garantizar un uso responsable, Unity usa filtros de contenido de Azure OpenAI con tecnología Azure AI Content Safety."
"IWill Therapy utilizó IA generativa para crear un bot de chat que habla hindi y ofrece terapia cognitivo-conductual en toda la India. La solución emplea Azure AI Content Safety para detectar y filtrar contenidos potencialmente nocivos."
Introducción a la Seguridad del contenido de Azure AI
Informe
Personalización de la inteligencia artificial generativa para un valor único
Obtenga información experta sobre cómo la personalización de modelos de inteligencia artificial ayuda a las principales empresas del mundo a impulsar más valor en este nuevo informe de Microsoft y MIT Technology Review Insights.
Obtenga conocimientos de seguridad de contenido Azure AI
Obtenga información sobre cómo puede usar Seguridad del contenido de Azure AI para compilar barreras de protección de inteligencia artificial generativas en Fundición de IA de Azure.
Los modelos de Seguridad del contenido se han formado y probado específicamente en los siguientes idiomas: inglés, alemán, español, japonés, francés, italiano, portugués y chino. El servicio puede funcionar también en otros idiomas, pero la calidad puede variar. En todos los casos, debe realizar sus propias pruebas para asegurarse de que funciona para su aplicación.
Actualmente, las categorías personalizadas solo funcionan bien en inglés. Puede utilizar otros idiomas con su propio conjunto de datos, pero la calidad podría variar.
El sistema supervisa cuatro categorías de daños: odio, sexual, violencia y autolesiones.
Sí, puede ajustar los umbrales de gravedad para cada filtro de categoría de daño.
Sí, puede utilizar la API de categorías personalizadas de la Seguridad del contenido de Azure AI para crear sus propios filtros de contenidos. Proporcionando ejemplos, puede entrenar al filtro para que detecte y bloquee contenidos no deseados específicos de las categorías personalizadas que haya definido.
Los escudos de inyección mejoran la seguridad de los sistemas de IA generativa defendiéndolos de los ataques de inyección:
Ataques rápidos directos (liberaciones): Los usuarios intentan manipular el sistema de IA y eludir los protocolos de seguridad creando mensajes que intentan alterar las reglas del sistema o engañar al modelo para que ejecute acciones restringidas.
Ataques indirectos: El contenido de terceros, como documentos o correos electrónicos, contiene instrucciones ocultas para explotar el sistema de IA, como comandos incrustados que una IA podría ejecutar sin saberlo.
La detección de fundamentos identifica y corrige los resultados no fundamentados de los modelos generativos de IA, garantizando que se basan en los materiales de origen proporcionados. Esto ayuda a prevenir la generación de información fabricada o falsa. Mediante un modelo lingüístico personalizado, la detección de fundamentos evalúa las afirmaciones con respecto a los datos de origen y mitiga las alucinaciones de la IA.
La detección de material protegido para texto identifica y bloquea contenidos de texto conocidos, como letras de canciones, artículos, recetas y contenidos web seleccionados, para que no aparezcan en los resultados generados por la IA.
La detección de material protegido para código detecta e impide la salida de código conocido. Comprueba las coincidencias con el código fuente público en los repositorios de GitHub. Además, la capacidad de hacer referencia al código de GitHub Copilot permite a los desarrolladores localizar repositorios para explorar y descubrir código relevante.
El sistema de filtrado de contenido dentro de Azure OpenAI cuenta con la tecnología de Azure AI Content Safety. Está diseñado para detectar e impedir la salida de contenidos nocivos tanto en los mensajes de entrada como en los de salida. Funciona junto con los modelos principales, incluidos GPT y DALL-E.
Examine el centro de soluciones empresariales de Microsoft para encontrar los productos y soluciones que pueden ayudar a su organización a alcanzar sus objetivos.