Rileva e blocca contenuti violenti, che incitino all'odio, sessuali e di autolesionismo. Configura le soglie di gravità per il tuo caso d'uso specifico e rispetta i criteri di intelligenza artificiale responsabile.
Crea filtri dei contenuti specifici e mirati in base ai tuoi requisiti usando le categorie personalizzate. Esegui rapidamente il training di una nuova categoria personalizzata fornendo esempi di contenuti che desideri bloccare.
Proteggi le tue applicazioni di IA da attacchi prompt injection e tentativi di manomissione con jailbreak. Identifica e riduci le minacce dirette e indirette con le protezioni delle richieste.
Identifica e correggi gli errori dell'IA generativa, a garanzia che gli output siano affidabili, accurati e basati sui dati con il rilevamento della fondatezza.
Rileva e riduci i contenuti dannosi negli input e output generati dagli utenti e dall'IA, inclusi testo, immagini e contenuti multimediali misti, il tutto con Sicurezza dei contenuti di Azure AI.
Casi d'uso
Proteggi le tue applicazioni di IA
Sviluppa protezioni per le applicazioni di IA generativa
Usa l'IA per monitorare i contenuti generati dagli umani
Sicurezza
Sicurezza e conformità incorporate
34.000
Ingegneri FTE (Full-Time Equivalent) dedicati alle iniziative di sicurezza in Microsoft.
15.000
Partner con competenze specializzate in materia di sicurezza.
>100
Certificazioni di conformità, comprese oltre 50 specifiche per regioni e paesi a livello globale.
Crea e innova più rapidamente con i prodotti di Azure per intelligenza artificiale
Usa Sicurezza dei contenuti di Azure AI con altri prodotti di Azure per intelligenza artificiale per creare protezioni avanzate per l'IA generativa o sviluppare soluzioni complete con strumenti di IA responsabile predefiniti.
Azure OpenAI
Crea il tuo copilot e le tue applicazioni di IA generativa con modelli di visione e linguaggio all'avanguardia.
Sviluppa soluzioni di intelligenza artificiale più velocemente con modelli predefiniti e personalizzabili, usando i tuoi dati per innovare su larga scala.
Scopri in che modo i clienti stanno proteggendo le loro applicazioni con Sicurezza dei contenuti di Azure AI
"Il Dipartimento dell'istruzione dell'Australia meridionale ha lanciato un chatbot per l'istruzione basato sull'IA generativa per incorporare in modo sicuro la tecnologia IA nelle classi."
"ASOS usa l'IA generativa per migliorare l'esperienza clienti e consentire agli utenti di scoprire nuovi look alla moda con semplicità. Sicurezza dei contenuti di Azure AI consente di garantire interazioni e output di alta qualità."
"Unity ha sviluppato Muse Chat per migliorare il processo di creazione del gioco. Per garantire un utilizzo responsabile, Unity usa i filtri dei contenuti di Azure OpenAI basati in Sicurezza dei contenuti di Azure AI."
"IWill Therapy ha usato l'IA generativa per creare un chatbot che parla Hindi e offre una terapia comportamentale cognitiva in India. La soluzione utilizza Sicurezza dei contenuti di Azure AI per rilevare e filtrare contenuti potenzialmente dannosi."
Attività iniziali con Sicurezza dei contenuti di Azure AI
Report
Personalizzazione dell'IA generativa per ottenere vantaggi unici
Scopri le opinioni degli esperti su come la personalizzazione dei modelli di IA stia aiutando le aziende leader mondiali a generare più valore in questo nuovo report di Microsoft e MIT Technology Review Insights.
I modelli di sicurezza dei contenuti sono stati sottoposti a training e testati specificatamente nelle lingue seguenti: inglese, tedesco, spagnolo, giapponese, francese, italiano, portoghese e cinese. Il servizio può funzionare in altre lingue, ma la qualità potrebbe variare. In ogni caso, dovresti condurre i tuoi test per verificare il suo funzionamento nella tua applicazione.
Le categorie personalizzate attualmente funzionano bene solo in inglese. Puoi usare altre lingue con il tuo set di dati, ma la qualità potrebbe variare.
Il sistema monitora quattro categorie di contenuti dannosi: odio, contenuti sessuali, violenza e autolesionismo.
Sì, puoi modificare le soglie di gravità per ogni filtro di categoria di contenuti dannosi.
Sì, puoi usare l'API delle categorie personalizzate di Sicurezza dei contenuti di Azure AI per creare i tuoi filtri dei contenuti personali. Fornendo esempi, puoi eseguire il training del filtro per rilevare e bloccare contenuti specifici non desiderati in base alle categorie personalizzate definite.
Le protezioni delle richieste migliorano la sicurezza dei sistemi di IA generativa difendendoli da attacchi di prompt injection:
Attacchi alle richieste diretti (jailbreak): gli utenti provano a manipolare il sistema IA e superare i protocolli di sicurezza creando richieste che cercano di alterare le regole del sistema o ingannare il modello nell'ambito dell'esecuzione di azioni con limitazioni.
Attacchi indiretti: i contenuti di terze parti, come documenti o e-mail, presentano istruzioni nascoste per sfruttare il sistema IA, come i comandi incorporati che l'IA potrebbe eseguire inconsapevolmente.
Il rilevamento della fondatezza identifica e corregge gli output non fondati dei modelli di IA generativa, a garanzia che si basino sui materiali di origine forniti. Questo consente di evitare la generazione di informazioni inventate o false. Usando un modello linguistico personalizzato, il rilevamento della fondatezza valuta le problematiche relative ai dati di origine e riduce gli errori dell'IA.
Il rilevamento di materiale protetto per il testo identifica e blocca i contenuti testuali noti, come parole di canzoni, articoli, ricette e contenuti web selezionati, in modo che non vengano visualizzati come output generati dall'IA.
Il rilevamento di materiale protetto per il codice rileva e impedisce la trasmissione di codice noto. Controlla la presenza di corrispondenze rispetto al codice sorgente pubblico nei repository GitHub. Inoltre, il codice di riferimento della capacità basata su GitHub Copilot consente agli sviluppatori di individuare i repository per l'esplorazione e l'individuazione di codice sorgente.
Il sistema di filtro dei contenuti all'interno di Azure OpenAI usa la tecnologia di Sicurezza dei contenuti di Azure AI. È progettato per rilevare e prevenire l’output di contenuti dannosi sia nelle richieste di input che nei completamenti degli output. Funziona insieme ai modelli di base, inclusi GPT e DALL-E.
Esplora l'hub delle soluzioni Microsoft aziendali per trovare i prodotti e le soluzioni in grado di supportare l'organizzazione nel raggiungimento dei propri obiettivi.