Portal BEI

Como proteger marca, imagem e reputação na era da IA Generativa? – NeoFeed

Fonte: Patricia Peck

Considerada uma das grandes revoluções da Era Digital, a Inteligência Artificial Generativa já desperta grande interesse e também preocupação nos mais diferentes setores, do educacional ao entretenimento, ao ser um recurso que permite incontáveis possibilidades de criação, inovação e geração de conteúdo.

O impacto esperado no mundo dos negócios e no mercado de trabalho com o surgimento de novas soluções, mais eficazes e econômicas, gera muitas expectativas, mas também acende um alerta sobre riscos e problemas que podem surgir, já que é um modelo que evolui conforme o seu próprio aprendizado.

Um exemplo recente envolveu um dos maiores conglomerados do mundo que contestou o uso de suas marcas na IA Generativa. Muitos usuários passaram a criar imagens no estilo “Pixar”, a partir do uso da ferramenta de busca Bing. Segundo informações do jornal Financial Times, a Disney solicitou à Microsoft medidas para barrar o uso indevido de um logotipo da empresa e fazer cumprir as leis vigentes de propriedade intelectual.

Num primeiro momento, o termo “Disney” foi bloqueado no gerador de imagens baseado em DALL-E 3. Mesmo assim, a ferramenta ainda produz uma interpretação distorcida do logotipo da Disney-Pixar.

Quem também está buscando o uso responsável e com regras claras da IA é o sindicato de atores americanos (SAG-AFTRA), que impôs condições para salvaguardar o direito de imagem no universo digital, para evitar desde o uso de figurantes sintetizados por computador até a recriação “virtual” de falecidos ícones do cinema, por meio de representações digitais verossímeis.

O estúdio que pretende usar a imagem de um ator via IA, seja em produções cinematográficas ou na televisão, deve obter consentimento prévio e inequívoco do próprio artista ou seus herdeiros. Além disso, não se admite mais contratos e clausulados que permitam o uso inesgotável destas réplicas. Uma “descrição precisa do propósito das mesmas” é exigida em cada acordo.

Mesmo que esse modelo seja uma opção econômica atraente para produtores, seu uso deve ser transparente e respeitar os direitos dos envolvidos. É fundamental estabelecer a Governança da IA (inclusive a Generativa), com Políticas, Códigos de Conduta e Contratos que estabeleçam diretrizes de uso, “DOs e DON’Ts”, para que possamos inovar sem riscos legais e reputacionais desnecessários, de forma ética, sustentável, e respeitando o ser humano.

Também é indispensável analisar os termos de uso e as licenças, de como estão estabelecidos os direitos e obrigações do usuário e dos titulares dos direitos das soluções. No serviço do Midjourney, pelos Termos de Uso consta que “a licença sobrevive à rescisão do Contrato por qualquer parte, por qualquer motivo”. Ao mesmo tempo estabelece que o usuário é “o proprietário de todos os Ativos criados com os Serviços, desde que tenham sido criados de acordo com o Contrato”.

A transparência e o crédito também envolvem reflexões acerca de quando e em que medida deve ser informado que o conteúdo é originado de IA generativa. Vale citar o exemplo que na metade deste ano, empresas como a Meta, OpenAI e Alphabet aceitaram um pedido da Casa Branca para implementar medidas como marcas d’água para identificar os conteúdos gerados por IA e assim tentar tornar o uso da tecnologia mais seguro.

Outro aspecto importante é a citação do crédito e da fonte das produções criadas por soluções de IA generativa. Segue um modelo:

PatriciaPeck_artigo_quadro

Ainda nos Estados Unidos, a Comissão Eleitoral Federal do país abriu uma petição que, com um resultado positivo, pode significar novas regras para reger as campanhas eleitorais no país e até a proibição de conteúdos de IA em campanhas políticas. A proposta surgiu do Public Citizen, com objetivo de punir fraudes no processo eleitoral, principalmente daqueles que envolvem conteúdos gerados artificialmente em anúncios políticos.

Já os parlamentares da União Europeia entraram em entendimento com o Conselho Europeu com a finalidade de assegurar que a Inteligência Artificial na região esteja respaldada por segurança, respeito aos direitos fundamentais e à democracia. Ao mesmo tempo em que proporcionará às organizações um ambiente propício para crescer e diversificar, buscando também incentivar a inovação. As normas implementadas trazem obrigatoriedades considerando seus potenciais riscos e nível de impacto.

A caminho de regulamentações

Mesmo ainda em nível inicial de desenvolvimento, considerando o alto impacto desta nova tecnologia, não se pode deixar de lado a necessidade de se resguardar determinados direitos e princípios fundamentais, que devem ser observados desde a concepção, ou seja, devem servir de norteadores para a indústria e todo o mercado.

Cabe ao Estado em seu dever de cautela e cuidado se antecipar aos possíveis eventos danosos de uso ilícito ou desvio de uso da Inteligência Artificial, que pode trazer efeitos colaterais maléficos para toda a sociedade. Por este motivo, especialmente frente aos recentes casos de uso ilícito de modelos de inteligência artificial, seja para Deep Fake, Fake Nudes, ou até alucinações algorítmicas, um marco regulatório da IA deve estar estruturado no mínimo necessário, considerando:

  • Uso ético e responsável;
  • Segurança e confiabilidade da inteligência artificial;
  • (Des)necessidade de criação de uma agência reguladora;
  • Fomento à inovação e programa de cibersegurança;
  • Transparência quanto à identificação de conteúdo gerado por IA;
  • Princípios para a proteção da espécie humana e dos dados pessoais.

Para o contexto brasileiro, que precisa estimular a inovação e a corrida robótica, é preferível a jornada de aprendizado social e legislativo a partir da aplicação prática da tecnologia. Uma regulamentação basilar e orientativa que possa receber camadas de aprofundamento técnico conforme o setor de mercado em que seja aplicada, onde a Agência reguladora específica poderá agir de maneira complementar e verticalizada.

Como o protagonismo do Tribunal Superior Eleitoral (TSE), que já anunciou a realização de debates para regulamentar o uso de inteligência artificial nas próximas eleições, e punir candidatos que utilizam a tecnologia para desinformar os eleitores.

É um formato que poderá garantir um modelo mais dinâmico para manter a lei atualizada e acompanhando a evolução da própria IA.

Patricia Peck, CEO e sócia-fundadora do Peck Advogados. Com 45 livros publicados, é professora de Direito Digital da ESPM. Foi Conselheira Titular do Conselho Nacional de Proteção de Dados (CNPD).

Compartilhe:

WhatsApp
Facebook
Twitter
LinkedIn
Pinterest
Telegram
+ Relacionadas
Últimas

Newsletter

Fique por dentro das últimas notícias do mundo dos negócios!