Práticas recomendadas para proteger conteúdo gerado com IA

O objetivo da política de conteúdo gerado com IA do Google Play é garantir que esse conteúdo seja seguro para todos os usuários. Para proteger a segurança dos usuários, os desenvolvedores precisam incorporar algumas salvaguardas nos apps. Este artigo compartilha as práticas recomendadas que os desenvolvedores podem adotar para garantir a compliance dos apps.

Visão geral

Os desenvolvedores são responsáveis por garantir que os apps de IA generativa não gerem conteúdo ofensivo, o que inclui as proibições indicadas nas políticas de conteúdo inadequado do Google Play, conteúdo que possa causar exploração ou abuso de crianças e conteúdo que possa enganar os usuários ou permitir comportamentos desonestos. Os apps de IA generativa também precisam obedecer a todas as outras políticas na Central de políticas para desenvolvedores.

Práticas recomendadas

Os desenvolvedores precisam implementar salvaguardas de conteúdo ao criar apps de IA generativa para garantir a segurança dos usuários. Isso inclui a adoção de práticas de teste e segurança alinhadas aos padrões do setor.

Para saber como realizar testes de segurança, os desenvolvedores podem consultar o framework de IA segura (SAIF) do Google e o guia de formação de equipes vermelhas de IA generativa do projeto OWASP Top 10 para aplicativos de LLM e IA generativa (links em inglês).

Há diferentes maneiras de garantir a segurança do conteúdo no seu app de IA generativa, como adotar filtros e classificadores para bloquear entradas e respostas nocivas. Muitos provedores de modelos de IA publicam recursos para desenvolvedores sobre como implementar essas salvaguardas. Confira abaixo algumas das opções e guias de segurança de conteúdo de diferentes provedores (links em inglês):

Conteúdo relacionado

Isso foi útil?

Como podemos melhorá-lo?
true
Pesquisa
Limpar pesquisa
Fechar pesquisa
Menu principal
18243496524140563821
true
Pesquisar na Central de Ajuda
true
true
true
true
true
92637
false
false
false
false