Home / Tecnologia / Anthropic dá até 28 de setembro para usuários decidirem se conversas com o Claude poderão treinar a IA

Anthropic dá até 28 de setembro para usuários decidirem se conversas com o Claude poderão treinar a IA

Spread the love

Quem usa o chatbot Claude tem pouco mais de um mês para escolher se permitirá que suas conversas e sessões de programação sejam utilizadas no treinamento dos modelos de inteligência artificial da Anthropic. A empresa avisou nesta quinta-feira (28) que passará a armazenar esses dados por até cinco anos, salvo recusa expressa do usuário.

Como funciona a opção de consentimento

• A decisão precisa ser tomada até 28 de setembro.

• A configuração vale apenas para novos diálogos ou chats retomados e para sessões de programação.

• Conversas anteriores só entram no treinamento se o usuário voltar a interagir com elas.

Todos os planos voltados ao consumidor – Claude Free, Pro e Max, inclusive o recurso Claude Code – estão incluídos. Ficam de fora as ofertas corporativas (Claude Gov, Claude for Work, Claude for Education) e acessos via API, como Amazon Bedrock e Vertex AI.

Pop-up de escolha é obrigatório

Novos usuários definirão a preferência no cadastro. Quem já utiliza o serviço verá um pop-up exibindo “Atualizações nos Termos e Políticas de Consumo”. O botão “Aceitar” aparece em destaque, enquanto a chave “Permitir o uso de seus chats e sessões de programação” vem ativada por padrão.

Para recusar o compartilhamento, é necessário desativar a chave no momento da notificação ou, posteriormente, em Configurações > Privacidade > Configurações de Privacidade > Ajudar a melhorar o Claude.

Alterações valem só para dados futuros

A Anthropic ressalta que a escolha pode ser modificada a qualquer momento, mas não afeta informações já usadas no treinamento. A empresa afirma empregar processos automatizados para remover ou ofuscar dados sensíveis e garante que não comercializa as informações dos usuários.

Anthropic dá até 28 de setembro para usuários decidirem se conversas com o Claude poderão treinar a IA - Imagem do artigo original

Imagem: Reprodução

Avaliação cruzada de segurança com a OpenAI

No mesmo comunicado, a companhia lembrou que realizou testes de segurança nos modelos da OpenAI, enquanto a rival avaliou o desempenho do Claude. Os relatórios apontaram pontos de atenção como bajulação, uso indevido, jailbreaking e alucinações, além de taxas de recusa diante de solicitações duvidosas. A iniciativa chamou atenção porque o acesso da OpenAI ao Claude foi bloqueado após suspeita de violação de termos de serviço.

Usuários que não se manifestarem até 28 de setembro precisarão aceitar ou recusar o uso dos dados para continuar utilizando o chatbot.

Com informações de Olhar Digital

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *