Um poderoso serviço de filtro de palavrões para capturar conteúdo ofensivo

A sessão de perguntas e respostas da ValueWalk com Jonathan Freger, co-fundador e CTO, e Joshua Buxbaum, co-fundador e diretor de vendas da WebPurify. Nesta entrevista, Jonathan e Joshua discutem os antecedentes deles e de suas empresas, serviço de filtro de inteligência artificial e palavrões, risco de UGC ofensivo, como o WebPurify difere de disqus, a linha definidora entre auto-expressão aceitável e conteúdo ofensivo, opiniões sobre propostas dos senadores Hawley e Warren, se a IA é um hype ou o negócio real, e propõe Transparência Algorítmica.

Você pode nos contar sobre sua formação?

Jonathan Freger: Cofundador / CTO

Antes de fundar a WebPurify, Jonathan era fundador e diretor de tecnologia da agência de marketing interativo Deep Focus, onde era responsável por orientar a visão técnica da organização e liderar equipes de desenvolvimento de clientes como Microsoft, Nintendo e Calvin Klein.

Sua paixão por APIs o levou a pesquisar e desenvolver o WebPurify Profanity Filter em 2007 e, posteriormente, criar serviços avançados de moderação de IA para imagens e vídeos gerados por usuários.

Atualmente, ele supervisiona as equipes técnicas do WebPurify.

Joshua Buxbaum: cofundador / diretor de vendasr

Joshua traz 20 anos de experiência em vendas para a equipe WebPurify.

Seu compromisso com a satisfação do cliente é uma das forças motrizes por trás do sucesso da empresa, e seu histórico comprovado em comunicações com clientes contribuiu significativamente para a evolução dos serviços da WebPurify.

Joshua se formou na Universidade George Washington com um BA em Comunicações.

Atualmente, ele supervisiona a equipe de vendas e serviços ao cliente no escritório de WebPurify em Los Angeles.

E o seu negócio?

O WebPurify começou há mais de 12 anos, oferecendo inicialmente um serviço de filtro de palavrões projetado para capturar texto ofensivo.

Nossos usuários estavam igualmente preocupados com o envio de imagens e vídeos, então começamos a expandir nossos serviços para atender a essas preocupações, tanto com nossa tecnologia quanto com nossas equipes ao vivo.

Hoje, estamos entusiasmados por ser um líder do setor com moderação de conteúdo, ajudando centenas de empresas a proteger seus usuários e marcas do conteúdo ofensivo gerado pelo usuário, 24 horas por dia, 7 dias por semana.

Quais produtos você oferece?

Para UGC de imagem e vídeo, oferecemos nossa equipe de moderação ao vivo altamente treinada 24 horas por dia, 7 dias por semana, além do serviço de Inteligência Artificial chamado AIM.

Também fornecemos um poderoso serviço de filtro de palavrões, projetado para capturar as várias e criativas maneiras pelas quais os usuários tentam enviar texto ofensivo em 15 idiomas diferentes.

O que exatamente o seu serviço de filtro de palavrões está moderando e para quem?

O risco de UGC ofensivo é universal, em todos os tipos de empresas.

Nossos clientes variam de sites infantis, sites de namoro, plataformas de comércio eletrônico, plataformas de jogos, empresas de vestuário, permitindo que os usuários personalizem seus produtos e campanhas interativas de agências.

Você trabalha com empresas, governos ou o quê?

Nossos clientes típicos são grandes empresas com altos volumes de conteúdo gerado pelo usuário de entrada em sua plataforma.

Como seu serviço de filtro de palavrões difere de serviços como disqus?

Disqus é um serviço de hospedagem de comentários de blog; somos um serviço de moderação de conteúdo que pode ser conectado a sistemas de comentários para monitorar e denunciar conteúdo abusivo.

Como você define a linha entre censura e obscenidade com seu serviço de filtro de palavrões?

Determinar a “censura” é subjetivo, pois diferentes públicos podem interpretar o conteúdo de maneira diferente. Por exemplo, uma foto de uma mulher nua em um museu pode ser interpretada como arte ou pornografia, dependendo do espectador.

Definir a linha entre a auto-expressão aceitável e o conteúdo ofensivo é um desafio contínuo que muitas das grandes plataformas sociais estão enfrentando atualmente.

Não tomamos posição sobre o que deve ou não ser permitido. Nossos clientes determinam onde eles querem traçar a linha, e nós a aplicamos.

Como você imagina, um site infantil pode ter regras significativamente mais rígidas do que um site de namoro, por exemplo.

Como você lida com governos estrangeiros ou mesmo locais pedindo que você participe da censura de dissidentes políticos?

Atualmente, não trabalhamos com nenhum governo estrangeiro.

Há um grande debate sobre tecnologia e seu papel no processo político. Como isso se vincula ao que você faz?

Neste ponto, não temos clientes nos pedindo para limitar ou monitorar discussões políticas.

Você tem opiniões sobre propostas recentes dos senadores Hawley ou Warren?

A proposta do senador Hawley está mais focada em conter o vício nas mídias sociais, enquanto o senador Warren está mais interessado em quebrar o Facebook.

Nossos serviços são usados ​​para restringir conteúdo abusivo e censurável de plataformas.

Como seu serviço de filtro de palavrões funciona sem precisar de toneladas de humanos e tempo – é tudo AI?

Descobrimos que a solução de moderação mais eficaz e escalonável deve incorporar uma equipe ao vivo altamente treinada, além da IA.

Oferecemos IA e moderação ao vivo e trabalhamos com cada cliente para ajudá-los a determinar a maneira mais eficaz de utilizá-los juntos.

Há muito debate sobre IA, você pode definir o termo para nós:

Inteligência Artificial é o treinamento de máquinas para executar tarefas humanas.

Como dissemos anteriormente, neste momento, nossos serviços de IA são extremamente valiosos no processo de moderação, mas as máquinas ainda lutam com o contexto de uma imagem e, portanto, os seres humanos ainda são uma parte vital do processo.

Você acha que é hype ou o negócio real?

A inteligência artificial é uma ferramenta essencial no processo de moderação para projetos de alto volume, mas, sem dúvida, houve muito hype em torno de sua capacidade de substituir a necessidade de revisão humana, e esse não é o caso neste momento.

Se você pudesse aprovar alguma legislação relacionada ao serviço de filtro de palavrões, IA ou censura, o que seria?

Precisamos dar uma olhada na Transparência Algorítmica.

À medida que avançamos no mundo da IA, será essencial monitorar o viés (intencional ou não), isso só pode ser feito se as empresas forem forçadas a divulgar os componentes de seus algoritmos.

Artigos Relacionados

Back to top button