Nesta semana, damos continuidade à leitura de “Big Data”. No capítulo anterior, alguns riscos foram apontados e discutidos para, no seguinte, demonstrar possibilidades para controlá-los.
Na nona parte do livro de Viktor Schönberger e Keneth Cukier, portanto, discute-se a necessidade de lidar de forma diferente após mudanças no modo como processamos a informação. Já que o Big Data está transformando “muitos aspectos de nossas vidas e formas de pensar”, deve-se criar novas adaptações para, assim, poder evitar o “dark side” do Big Data demonstrado no capítulo anterior.
Privacidade
Na utilização de dados a partir de Big Data, como já foi detalhado em outros capítulos, seu valor não está apenas no uso primário, mas também – e muitas vezes principalmente – em processamentos e análises secundárias antes não imaginadas. Gera-se nesse sentido, então, uma incompatibilidade com a ideia de privacidade como princípio de controle individual de informações pessoais. Com Big Data, torna-se difícil solicitar consentimentos individuais explícitos para cada uso específico.
Dessa forma, os autores sugerem uma nova perspectiva de privacidade para uma era de Big Data: menor ênfase no consentimento individual e mais em assegurar a responsabilidade com o uso dos dados. Ou seja, colocar-se responsável em relação ao uso, aplicação e proteção dos dados. Dessa forma, transfere-se a responsabilidade do público para os administradores dos dados.
Nessa nova perspectiva, as empresas passariam a ter o direito de usar dados pessoais por mais tempo, mas em troca precisam responsabilizar-se pelo uso, assim como apagar as informações armazenadas após um período de tempo determinado. É a mudança da “privacidade por consentimento” para “privacidade através de accountability“. Além disso, há, para Schönberger e Cukier, o conceito de “privacidade diferencial”, a partir da qual se coloca a possibilidade de “borrar” dados para que, em grande quantidade, não revelem resultados exatos.
Previsões
Segundo os autores, necessita-se revisar o conceito de justiça para, assim, garantir a agência humana. As pessoas devem ser responsabilizadas por seus atos – e não por possíveis previsões a partir de Big Data. Deve-se buscar uma justiça que não corra o risco de culpar alguém por probabilidades de ter cometido um crime.
Trata-se de uma idéia a cooperar com a imposição de uma “ditadura dos dados”, como foi apontado no capítulo anterior. Colocando-se a necessidade de atenção e garantia da agência humana, consequentemente a exagerada confiança nos dados seria amenizada.
Abrindo a caixa-preta
Em uma era de Big Data, rastear erros e interpretar códigos será uma tarefa mais difícil. As previsões algorítmicas baseadas em grande quantidade de dados serão mais complexas.
Para Schönberger e Cukier, as previsões em Big Data serão, cada vez mais, caixas-pretas. E, para prevenir que se feche por completo, será necessário monitoramento e transparência, a partir de novos e diferentes tipos de conhecimento e instituições. Por isso, indicam um novo tipo de profissional para um futuro próximo chamado de “algoritimista”, especialistas, por exemplo, em ciência da computação, matemática ou estatística: “Eles atuariam como revisores de análises e previsões em Big Data”.
Como há algum tempo o Lab404 vem desenvolvendo pesquisas baseadas na Teoria Ator-Rede, impossível não trazer uma comparação a partir do conceito de “caixa-preta”. Para a TAR, “encaixapretar” é estabilizar uma rede, fazendo com que os actantes ajam como se fossem apenas um. É justamente o que acontece com uma ampliação do uso de Big Data. São diversos dados, de diversos tipos e origens, funcionando como importantes mediadores em associação para, em um certo momento, funcionarem como uma caixa-preta capaz de gerar previsões e análises. A importância, no caso, é manter a capacidade de abrir tais caixas-pretas, identificar as redes, os mediadores, os atores humanos e não-humanos envolvidos com o Big Data.