AASP logo
AASP logo

Notícias

Dever de cuidado e responsabilidade civil das plataformas digitais na proteção de crianças e adolescentes

Autor: Vinicius Vogel Correa

­

Data de produção: 20/01/2026

­

Os artigos postados neste canal são apresentados por associadas e associados e refletem visões, análises e opiniões pessoais, não correspondendo, necessariamente, ao posicionamento da AASP.

­­­

A consolidação das plataformas digitais como espaços centrais de socialização expôs crianças e adolescentes a riscos inéditos, potencializados por sistemas automatizados de recomendação de conteúdo. Esse cenário evidenciou a insuficiência de modelos jurídicos puramente reativos, baseados exclusivamente na remoção de conteúdos mediante ordem judicial, e impulsionou a construção de um novo paradigma regulatório orientado pelo dever de cuidado das plataformas.

­

No plano internacional, o Reino Unido deu um passo relevante com a edição do Online Safety Act 2023, que instituiu obrigações legais preventivas às plataformas digitais, proporcionais ao risco dos serviços ofertados. A lógica adotada desloca o foco do conteúdo isolado para a arquitetura do sistema, exigindo avaliações contínuas de risco, mecanismos eficazes de moderação e proteção reforçada a crianças e adolescentes, inclusive contra conteúdos prejudiciais ainda que não necessariamente ilícitos.

­

No Brasil, esse movimento ganhou densidade normativa com a promulgação da Lei nº 15.211/2025, que instituiu o Estatuto Digital da Criança e do Adolescente. A nova legislação aplica-se a produtos e serviços de tecnologia da informação direcionados ou de acesso provável por menores, impondo deveres expressos de prevenção, proteção, informação e segurança. O diploma legal determina que os fornecedores adotem medidas razoáveis para impedir a exposição de crianças e adolescentes a conteúdos que envolvam, entre outros, indução, instigação ou auxílio à automutilação e ao suicídio, além de exigir configurações protetivas por padrão, gerenciamento de riscos e mecanismos eficazes de verificação etária.

­

Esse novo marco normativo dialoga diretamente com a recente reconfiguração jurisprudencial promovida pelo Supremo Tribunal Federal no julgamento dos Recursos Extraordinários nº 1.037.396 e nº 1.057.258. Nessas decisões, o STF reconheceu a inconstitucionalidade parcial da interpretação absoluta do art. 19 do Marco Civil da Internet, afastando a exigência universal de ordem judicial prévia como condição para a responsabilização civil das plataformas em hipóteses de elevada gravidade. O Tribunal passou a exigir a análise do dever de diligência do provedor, considerando a previsibilidade do dano, a capacidade técnica de intervenção e a eventual existência de falhas sistêmicas na moderação ou na prevenção de riscos.

­

No contexto da proteção infantojuvenil, essa inflexão assume especial relevância. O art. 227 da Constituição Federal consagra a proteção integral e a prioridade absoluta de crianças e adolescentes, diretriz que se projeta de forma intensificada no ambiente digital. O Estatuto Digital densifica esse comando constitucional ao impor atuação ativa das plataformas na mitigação de riscos estruturais, sobretudo quando exploram economicamente serviços amplamente utilizados por menores e utilizam algoritmos opacos de recomendação de conteúdo.

­

Em eventual cenário de responsabilização civil, não se estaria diante de responsabilidade objetiva automática. O regime que se consolida é o da responsabilidade subjetiva qualificada, que exige a demonstração do nexo entre o funcionamento do algoritmo e a exposição do menor a conteúdo perigoso, bem como a comprovação de falha sistêmica na adoção de medidas preventivas razoáveis. A análise desloca-se do ato isolado do usuário para a governança do sistema digital e para o cumprimento do dever de cuidado juridicamente exigível.

­

A aproximação entre o modelo britânico e o brasileiro revela uma tendência comum: a superação da neutralidade tecnológica absoluta e o reconhecimento de que plataformas digitais assumem deveres compatíveis com os riscos que seus próprios sistemas criam ou amplificam. Nesse cenário, o ordenamento jurídico brasileiro passa a dispor de instrumentos mais adequados para enfrentar danos graves envolvendo crianças e adolescentes no ambiente digital, preservando o equilíbrio entre liberdade de expressão, inovação tecnológica e proteção de direitos fundamentais.

­

Vinicius Vogel Correa

Advogado e palestrante, pós-graduado em Direito Público e em Direito Digital e Proteção de Dados. Presidente de Comissão de Direito Digital e Inteligência Artificial da OAB Boituva, com experiência acadêmica e prática na regulação de plataformas digitais.

­

Leia também: