Cientista usa big data para encontrar padrões de comportamento. Cappra abriu espaço no mercado dos EUA como consultor da ONU, Google e Casa Branca; leia entrevista.
Não há como negar. Assim que o despertador toca pela manhã, o impulso natural deixou de ser levantar, escovar os dentes e preparar um café. Ter em mãos o celular, checar mensagens, e-mails e redes sociais virou a primeira atividade do dia. Desde logo cedo, uma “avalanche de informações” invade as telas e os cérebros de crianças, adultos e idosos.
Conseguir filtrar, analisar e encontrar uso inteligente para todos esses dados tornou-se uma habilidade estratégica nos mais diferentes campos da vida. O cientista de dados gaúcho Ricardo Cappra conseguiu identificar padrões de comportamento diante da onda de informações e abriu espaço no mercado norte-americano, dando consultoria a órgãos como a Casa Branca, a ONU e o Google.
“A overdose não dificulta a análise, mas o processo decisório.”
Formado como técnico em processamento de dados, Cappra criou, aos 19 anos, uma empresa que oferecia serviços de tecnologia de informação. Além disso, trabalhou nas estratégias digitais das duas campanhas presidenciais de Barack Obama.
No entanto, um dos maiores feitos do gaúcho está relacionado à saúde. Cappra participou de um projeto que previu o surto do ebola cerca de nove dias antes de a Organização Mundial da Saúde (OMS) anunciar formalmente a epidemia. Tudo isso foi possível a partir do big data, o armazenamento rápido de uma grande quantidade de dados.
Atualmente, o cientista tem o Cappra Data Science – escritório liderado por ele, com sedes em São Paulo e São Francisco, nos EUA –, que se dedica a encontrar os algoritmos de análise – ou seja, as regras para decifrar todos os códigos.
Na capital federal, Cappra participou de um bate papo com os participantes da Campus Party na sexta-feira (29) e, pouco antes, falou com o G1 sobre:
- O papel da ciência de dados
- O impacto das redes sociais na análise de dados
- A necessidade de filtros contra a “avalanche de informações”
- O trabalho durante a campanha presidencial de Barack Obama
- A relação da ciência de dados com a propagação de “fake news”
- O uso de informações pessoais dos cidadãos por empresas
- O trabalho que o deixou conhecido como “o cientista que ajudou a ONU a conter o ebola”
Leia a entrevista
G1: O que é possível fazer com a ciência de dados?
Cappra: Primeiro, acho importante explicar que a ciência de dados tem três pilares. Ela é composta por um tecnológico (código), por um científico (estatística e matemática) e, finalmente, por um analítico (análise de negócio). Então, quando a gente fala de ciência de dados, a gente tem que entender esses três pilares juntos.
Por exemplo, uma empresa precisa criar um algoritmo para antecipar as compras dela no mercado, um algoritmo de mercado. A gente tem um cliente, a Gerdau, que tem esse algoritmo que permite que ela antecipe o processo de compra por meio de um modelo matemático. Desta forma, ela consegue comprar antes dos concorrentes.
Para criar isso, precisamos desenvolver um modelo estatístico preditivo. Depois, criar um código de software para isso rodar automaticamente e, por último, aplicar esse código às regras de negócio da Gerdau. Sem esses três pilares, a gente não teria criado esse modelo.
Sintetizando, a ciência de dados vem para instrumentalizar um processo decisório das empresas, usando tecnologia, ciência e, obviamente, a aplicação analítica.
G1: Você falou sobre modelos preditivos. Teria como explicar o que são esses modelos?
Cappra: Tem vários modelos estatísticos de aplicação de previsão. Alguns são baseados em regressão. Então, pego uma base de 10 anos de histórico, faço uma regressão desses últimos 10 anos para ver o que aconteceu e, baseado nessa regressão, monto um parâmetro prevendo o que vai acontecer nos próximos seis meses, um ano. E, claro, usando a matemática.
Cada vez que o tempo vai passando, você vai ensinando novas regras para esse modelo. É como se você estivesse balanceando e aumentando a precisão dele. Então, esse tipo de modelo tem 82% de acerto.
G1: Então, modelos preditivos também podem falhar...
Caprra: Bastante. Agora, estamos no meio da Copa do Mundo e grandes empresas fizeram modelos preditivos de quem iria ganhar o torneio. Três modelos importantes que eu li, de grandes instituições, apostaram que a Alemanha ganharia a Copa usando matemática pura.
O que aconteceu? Pode ter sido que alguma variável não foi balanceada do jeito adequado. Ou seja, o modelo preditivo pode errar porque ele é baseado nas varáveis conhecidas. Se as variáveis conhecidas nunca consideraram a Coreia do Sul como uma seleção com bons jogadores para competir contra a Alemanha, não dá para prever que aquele resultado vai acontecer [após perder por 2 a 0 para a seleção asiática, a atual campeã do mundo foi eliminada do torneio].
A partir de agora, o próximo modelo estará melhor porque teve esse aprendizado em cima da Coreia.
“Os modelos falham. Não tem mágica.”
G1: Qual tem sido o papel das redes sociais para a ciência de dados?
Caprra: As redes sociais são um potencializador de armazenamento de dados que a gente nunca teve. Vamos pensar no ambiente digital geral e não só nas redes sociais. O que a gente busca no Google, as notícias que a gente lê, as notícias que a gente não lê... Tudo isso vai deixando registro. Assim como as redes sociais, o que a gente comenta, o que a gente conversa. Esse monte de registro dentro de um banco de dados vira riqueza. Quando começo a cruzar essas informações, começo a fazer descobertas.
Se eu descobrir que você gosta de rock e eu descubro que outros 72% da sua base de amigos gostam de rock, eu tenho um padrão. Então, cada cruzamento que eu vou fazendo, vou descobrindo possibilidades e características desse público.
“A ciência de dados ‘decodifica’ o comportamento humano.”
E, aqui, cito como exemplo o caso do Cambridge Analytica, em que o Facebook cometeu um roubo de dados. Mas o que Facebook fez como modelagem não tem nada de errado.
Eles pegaram o padrão de comportamento das pessoas e traçaram um perfil desse público para poder mandar mensagens para eles. O modelo matemático deles não é crime. Pelo contrário, é ciência. O que eles fizeram de errado foi adquirir uma base ilegalmente e isso, obviamente, é um crime.
A gente tem gente deixando rastros nas redes sociais. Isso beneficia uma marca que queira fazer uma campanha e saiba usar esses dados.
“A overdose não dificulta a análise, mas o processo decisório.”
G1: A overdose de informações que recebemos diariamente dificulta esse processo de análise de dados?”
Caprra: Vou explicar melhor isso. A gente virou um consumidor ativo de informação. A primeira coisa que você faz de manhã, quando acorda, é pegar seu smartphone para ver o que está acontecendo. Você está sempre consumindo mais e mais informação. Chega uma hora que o seu cérebro cansa. O cérebro é um músculo e, na hora que ele cansa, começa a tomar decisões erradas. E o que a gente faz para compensar isso? Consome mais informação.
A gente tem um vício de consumo de informação. Isso tem, inclusive, um termo. Se chama de infoxication, a intoxicação por consumo de informação.
Onde entra a tecnologia a favor disso? A gente pode filtrar todas essas informações. Mas, aí, vai ter muita gente dizendo: “os filtros do Google, os filtros do Facebook são ruins...” Se a gente não tivesse esse tipo de tecnologia, a gente não iria conseguir organizar a quantidade de informação que a gente recebe.
Você mora em Brasília? Imagina que você quer pedir uma pizza. Você digita no Google “pizza”. Aí ele traz todas as pizzas do mundo para você. Se ele não filtrar que você está em Brasília, no bairro X, você receberia uma quantidade de informação que não ajudaria na tomada de decisão de pedir uma pizza.
"As ferramentas de tecnologia, os filtros, estão vindo para nos ajudar a reduzir a quantidade de informação que a gente recebe para tomarmos melhores decisões. E, aí, entra a ciência."
Se a gente tiver uma habilidade e uma mentalidade analítica melhor, começaremos a tomar decisões melhores com menos informações. A gente, na verdade, precisa diminuir o big data.
Se a gente não fizer bons filtros, consumiremos informação inútil ou inadequada. Uma das coisas que a gente acredita nos nossos laboratórios é que o nosso papel é disseminar essa cultura analítica. Se as pessoas tiverem um desenvolvimento analítico, elas vão poder fazer escolhas melhores, por conta própria, e não baseadas no que a onda está mostrando.
G1: Você trabalhou nas estratégias digitais das duas campanhas presidenciais de Barack Obama. Como é possível usar o big data para decodificar o comportamento do eleitor?
Cappra: Pega-se os traços de comportamento das pessoas, associa-se a isso o que acontece no aspecto de repetição e agrupa-se as pessoas pelos padrões. Existe uma metodologia chamada “ocean”, que é uma metodologia de mercado, que classifica as pessoas em cinco perfis, e de acordo com esses perfis eu consigo dizer quais são as caraterísticas delas.
Assim, ao invés de se fazer uma caracterização ou agrupamento demográfico, se consegue fazer um agrupamento psicográfico, por comportamento. A partir desse agrupamento por comportamento, consegue-se entregar mensagens que façam mais sentido a essas pessoas no momento mais adequado do dia delas.
Por exemplo: eu sei que você tem um cachorro branco. Por que eu sei isso? Porque você compra produtos para cachorros de pelo branco, porque você posta fotos nas suas redes sociais com cachorro branco, e aí há características de pessoas que são donas de cachorros brancos que se repetem. Então, se eu quero conversar com essa pessoa, posso me apropriar de linguagens específicas para poder mandar mensagens a ela.
Eu acho que as pessoas estão nisso de “ah, é diferente falar para pessoas nas eleições...” Na verdade não tem diferença nenhuma. Marca, empresa, evento, influenciador... Na verdade, não faz diferença. O tipo de agrupamento é sempre o mesmo.
Mas há um ponto de alerta. Por exemplo: se no seu Instagram, você só curte fotos de comida, só vão aparecer outras fotos de comida. O que você vai pensar? “Só existe comida à minha volta”, mais especificamente só chocolate. Por quê? Porque você fez escolhas que te fizeram chegar a resultados somente relacionados a chocolate.
"No caso de uma eleição, por exemplo, se você somente clicar em notícias falsas, vai acontecer que aparecerão cada vez mais notícias falsas para você."
O que vai acontecer é que você vai ter na sua percepção, na sua leitura humana, isso como verdade, induzindo um pensamento não natural. Só que nas eleições isso é mais grave porque pode estar te induzindo a eleger um governante para o país.
Sobre esse ponto: nós fomos consultados por sete partidos políticos diferentes no Brasil para que pudéssemos ajudá-los nas campanhas presidenciais deste ano. Nós não trabalhamos mais com política. Minha última atuação com política foi [a eleição presidencial americana de] 2012 e, desde lá, decidimos que não trabalharíamos com política.
G1: Como foi para um brasileiro trabalhar em um sistema de eleições tão diferente do nosso?
Cappra: Não existe diferença. Nem o mercado, nem o país, nem a região, nem o tipo de atuação. É uma técnica. É uma técnica matemática, estatística, tecnológica, aplicada a qualquer coisa. Não importa mercado, região...
Por exemplo, o algoritmo do Facebook atua independentemente de região. Não há um algoritmo pro Brasil, um pros Estados Unidos, ou um específico para eleição. Acontece que a máquina aprende e se reconfigura para atuar nessas regiões automaticamente, então não importa o que seja. A estruturação para isso, sendo técnica, é que pode atender a qualquer um desses mercados.
G1: Após a eleição de Donald Trump, muito tem se falado sobre a disseminação das “fake news”. Como a ciência de dados pode ajudar na luta contra a massificação de notícias falsas?
Cappra: Durante a eleição presidencial americana de 2016, havia um gráfico que mostrou que a quantidade de informações falsas consumidas foi maior do que de informações verdadeiras. Isso significa que o norte-americano consumiu mais informação falsa do que verdadeira no momento em que estava votando. Isto pode ter induzido no processo eleitoral, de votos.
Onde entra a ciência de dados neste caso, ainda mais no caso de ciência analítica ou cultura analítica? Se nós tivéssemos capacidade de criar melhores filtros, ou de entender que aquela informação foi preparada para recebermos daquela forma, teríamos maior capacidade de assimilar ou de descartar aquela informação.
Se nós, como sociedade, formos melhor preparados para tratar a informação – não que tenhamos de ser todos técnicos -, mas se soubermos fazer as perguntas para a informação, vamos poder fazer escolhas melhores.
Para melhorar sua escolha, há que se melhorar sua habilidade ou capacidade analítica, deve-se preparar melhor as pessoas pra isso. É até um papel nosso aqui na Campus Party, abrir a cabeça da galera, explicar o que significa ter uma cabeça mais analítica.
G1: Com os avanços tecnológicos, a sensação de que estamos sendo vigiados é constante. Com as novas tecnologias e o uso do big data, todas as nossas informações podem ser utilizadas por grandes empresas, sem nem mesmo termos consciência disso. Há como fugir disso?
Cappra: Não é sensação, né? Não há como fugir disso...
Eu vou inverter a pergunta: Por quê fugiríamos disso? Se a gente enxerga e percebe que, daqui pra frente, vamos ter uma sociedade mais transparente, essa sociedade mais transparente exige que a informação esteja disponível para todo mundo.
É o que falamos da transparência de informação, que o governo brasileiro e outros governos já adotaram, que eles precisam ser mais transparentes quanto à informação, mesmo que isso os prejudique lá na frente, em seus processos.
Se estamos implementando isto dentro de organizações, governos e empresas, por quê não implementar na sociedade? Porque, na verdade, deixarmos rastros é diferente de sermos vigiados.
Eu acho que deixar rastros pode nos trazer coisas melhores. Por exemplo, se eu tivesse de escolher uma música dentro do [aplicativo de músicas] Spotify, aleatoriamente, estaria perdido.
Quero dizer: o aplicativo vai percebendo as coisas que estou escutando, aprendendo as coisas que gosto, vai vendo as músicas que pulo, as outras que escuto por inteiro, e chega no final da semana e ele me entrega uma caixinha com as “Descobertas da Semana”. Eu adoro aquilo porque tem a ver comigo, com as coisas que escutei, com o meu momento e com a semana que passei. Estou deixando um rastro com recomendações que estão trazendo um produto melhor pra mim.
Mas assim: posso ter uma rede social que está me entregando uma publicidade que eu não quero receber. O que eu faço? Começo a fazer escolhas diferentes. Então, o produto ruim não vai ser mais usado. Eu estou deixando rastros para que eu tenho algo de benefício.
Nós, como sociedade, em relação à vigilância de governo devemos dizer o seguinte: “se as minhas informações são coletadas, eu quero produtos melhores. Me entregue produtos melhores pelos dados que estou te entregando”. Eu acho que é uma troca e temos que reivindicar se não estamos recebendo produtos melhores do governo, por exemplo.
Precisamos entender essas duas possibilidades. Por exemplo: se, dali a pouco, o meu plano de saúde me disser que toda vez em que eu for ao laboratório fazer um exame e o fato de eu deixar os meus dados for ajudar as próximas pessoas a fazer exames lá, vou querer deixá-los. Agora, se o plano me disser que aquilo só serve para fazer formatação de preço do plano, não vou querer deixar.
E aí toda a discussão sobre privacidade vem em cima disso, de quais são as regras, porque precisaremos de regras, de uma regulamentação, e é isso está acontecendo na Europa agora.
G1: Você ficou conhecido como o cientista que ajudou a ONU a conter o ebola. Qual foi o trabalho de análise de dados empregado nesse caso?
Cappra: O que a gente fez naquela época é muito parecido com o que a gente está fazendo dentro aqui da Campus. A gente traz a nossa metodologia e as pessoas começam a desenvolver soluções a partir disso.
A gente traz um método de análise de dados, usando dados públicos. Na hackathon “Date4Good”, aqui, da Campus Party em Brasília, a Unicef trouxe informações sobre a evasão das crianças na escola e a gente ensinou a meninada a analisar e cruzar essas informações e, agora, eles estão criando produtos.
Nosso papel é transferir a metodologia, mas quem está construindo a solução são as próprias pessoas. Lá na Campus Party, em Natal, saiu um aplicativo que prevê quando haverá uma lotação de hospital. Três meninos criaram isso em 48 horas com base em uma metodologia.
Não foi a gente que ajudou na eleição do Obama, na prevenção do ebola, não foi a gente que criou o aplicativo dos hospitais. A gente entregou metodologia. A gente transfere para que outras pessoas construam.
“Dá um grande orgulho ver que um método da ciência está sendo aplicado para resolver um problema social.”
Leia mais notícias sobre a região no G1 DF.
Post.N.\8.349
<.-.-.- Atendimento Personalizado com recepção Vip! -.-.-.>
.__-______________________________________________________________________________________-__.
Gipope® - Gariba's ™ // Bar & Lanches. Logística & Solutions with Intelligence for 2.018
Celular.-:) 075 - 99913 - 4248 -.- 98299 - 8117 -.- 98215 - 9520
.__-______________________________________________________________________________________-__.
Nenhum comentário:
Postar um comentário