quarta-feira, 16 de setembro de 2009

Dispositivos Sociais e o Impacto sobre Privacidade

ARTIGOS ESPECIAIS

15/09 - 19:18

Dispositivos Sociais e o Impacto sobre Privacidade

15 de setembro de 2009 - Quando se fala no impacto da tecnologia na privacidade do cidadão imediatamente vêm à tona as questões relativas à proteção a informações de natureza privada. Em recente artigo intitulado “People Can Be So Fake: A New Dimension To Privacy And Technology Scholarship” (“Gente Pode Ser Tão Falsa: Uma Nova Dimensão aos Estudos de Privacidade e Tecnologia”, 27/08/09, Stanford Center for Internet and Society, http://ssrn.com/abstract=1458637), Ryan Calo enriquece a discussão tradicional, que, desde a publicação, em 1890, do clássico “The Right to Privacy” (“O Direito à Privacidade”) de Samuel Warren e Louis Brandeis, tem se concentrado na capacidade da tecnologia de manipular a informação, ao incluir uma nova dimensão ao estudo do impacto à privacidade exercido pelo chamado desenho antropomórfico ou social. Em particular, Calo chama à atenção para a influência dos chamados “dispositivos sociais” no pleno exercício da privacidade. Equipamentos que respondem à voz e alguns até com resposta também sob forma de voz, além de dispositivos com interfaces que os fazem se assemelhar a humanos, todos têm demonstrado sua utilidade e conveniência, fazendo-nos aceitar que máquinas tais como robôs de serviço pessoal ou social desempenhem todo um novo elenco de tarefas. O fato é que a natureza da interface homem-máquina está mudando, e, mais especificamente, se tornando menos passiva e mais “social”. Segundo Calo, tal socialização da interface traz consigo o potencial de afetar valores fundamentais de privacidade simplesmente nos fazendo sentir observados e avaliados.

Há uma rica literatura em comunicações e psicologia sugerindo que o ser humano está, em sua essência, condicionado a reagir a essas interfaces como se uma pessoa estivesse verdadeiramente presente. E, naturalmente, as interfaces sociais são desenhadas de forma a capturar nossa atenção e avançar no quesito interatividade, liberando-nos para outras tarefas. Ao mesmo tempo, porém, as tecnologias que emulam pessoas podem ter efeitos indesejáveis, e um deles que, segundo Calo, se encontra bem documentado por estudos científicos, é a mudança de atitude, comportamento e estado psicológico que nos acomete diante de uma dessas interfaces. A adoção em larga escala dessas tecnologias pode vir a limitar as oportunidades não apenas de se sentir a sós, como de despertar a curiosidade e o auto-desenvolvimento. E tais efeitos trazem verdadeiro perigo pois não podem ser enfrentados através das técnicas tradicionais propiciadas pelas novas tecnologias de proteção ao sigilo da informação tais como cifragem e anonimização.

A propósito, essa necessidade de “estar a sós” já havia sido enfatizada por Warren & Brandeis: “A intensidade e a complexidade da vida, atendente aos avanços da civilização, têm tornado necessário algum retiro do mundo, e o homem, sob a influência refinadora da cultura, tem se tornado mais sensível à vida em público, de modo que a solidão [no bom sentido] e a privacidade têm se tornado essencial ao indivíduo”. Em seu tratado sobre privacidade e liberdade (“Privacy and Freedom”, Atheneum, NY, 1967), Alan Westin descreve, em termos da linguagem das artes dramáticas, a necessidade dos “momentos fora do palco” (em inglês, “moments off-stage”): “Como atores no palco dramático, (...) indivíduos podem sustentar papéis somente por períodos razoáveis de tempo, e nenhum indivíduo pode representar indefinidamente, sem alívio, a variedade de papéis que a vida demanda. Tem que haver momentos ‘fora do palco’ quando o indivíduo pode ser ‘ele próprio’.”

Em um forum de discussão sobre seus escritos a respeito da socialização da interface homem-máquina, Calo esclarece que, após ter ouvido a opinião de um grande número de acadêmicos da área de comunicações, engenheiros da Google, da Intel, e de outras empresas de tecnologia, além de ter, ele próprio, conduzido pesquisas na mídia especializada em tecnologia, foi levado a concluir que, de fato, tudo se encaminha para que os computadores e dispositivos eletrônicos inteligentes se tornem mais socialmente ativos e mais espertos, fazendo uso de algo do que se chama de inteligência artificial de modo a se parecerem humanos. Como exemplo, cita as palavras de Marissa Mayer, vice-presidente de “Serviços de Busca e Experiência do Usuário” da Google, numa palestra recente, dizendo que a tecnologia de busca ainda estava em sua infância, e que a gigante da busca estava explorando uma interface mais conversacional que permitiria aos usuários fazer perguntas ao buscador em viva voz como se estivessem conversando com uma pessoa.

Num outro artigo em seu blog no Center for Internet and Society (“Weegy: The Future Of Search?”, 18/06/09), Calo convida o leitor a experimentar uma “prévia” do que a tecnologia de busca na internet pode vir a ser nos próximos cinco a dez anos, visitando o portal Weegy—“um ser artificial online, equipado com um engenho de busca avançada e especialistas vivos.” Weegy usa uma combinação de técnicas de busca padrão, inteligência artificial de baixo nível, e “crowd-sourcing” (um modelo de produção que utiliza a inteligência e os conhecimentos coletivos e voluntários espalhados pela internet para resolver problemas, criar conteúdo ou desenvolver novas tecnologias) para responder a perguntas dos usuários em áreas tão diversas quando “Família e Paternidade” e “Eletrônica”. Embora ainda longe da perfeição, Weegy parece elevar o patamar de interatividade ao qual estarão galgando as tecnologias de buscas do futuro. Arriscando previsões, Calo acredita que a próxima geração das interfaces de busca serão mais sociais, e provocarão uma certa diluição da distinção entre o trabalho da máquina e o trabalho humano. E tudo isso contribuirá para que o ser humano vá reagir a máquinas sociais como se elas fossem verdadeiramente humanas e sociais. Em decorrência disso, será mais difícil para o cidadão fazer buscas na internet sobre tópicos “incômodos”, impopulares ou embaraçosos. Trata-se, obviamente, de uma restrição à nossa privacidade na medida em que estaríamos deixando de fazer algo que poderíamos vir a fazer, caso a sensação de estar a sós prevalecesse.

O fato é que vários estudiosos, entre eles Byron Reeves e Clifford Nass (autores do livro “The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places”, CSLI, Stanford, 2003), têm demonstrado exaustivamente que as pessoas respondem a máquinas sociais como se estas fossem verdadeiramente humanas. Em geral, a explicação para tal fenômeno do subconsciente vem sob forma de duas alternativas: evoluímos numa época em que as coisas que se pareciam com humanos eram de fato humanas, ou humanos são super-afinados com outros humanos de forma a capitalizar em nossas maiores vantagens evolucionárias de linguagem e cooperação.

De concreto, sabemos que num nível bem básico, temos dificuldade em distinguir entre vozes, rostos e conversações reais, e os produtos da chamada tecnologia social que os imita. Em decorrência disso, adotamos involutariamente tecnologias com o potencial para interromper o “estar a sós” e esfriar a iniciativa e a livre expressão. É preciso estar atento para o fato de que danos dessa natureza são extremamente perigosos pois se dão no subconsciente, e não podem ser remediados com as salvaguardas tradicionais de privacidade.

Por outro lado, levando-se em consideração as reconhecidas falhas no regime de políticas de privacidade expressas sob forma de textos que, efetivamente, nunca são lidos, pode estar aí uma oportunidade para se dar um passo adiante: ao invés de atrair sensações desnecessárias de observação, deveríamos considerar a criação daquelas sensações onde de fato há o perigo de que nossas informações serão utilizadas e coletadas de formas que nos afetem. E é nesse sentido que Calo afirma que as propriedades únicas da tecnologia social também oferecem uma oportunidade de melhorar o panorama da proteção à privacidade, mais particularmente no ciberespaço. O uso cuidadoso do desenho antropomórfico (por exemplo, através do emprego de avatares) poderia um dia substituir as políticas de privacidade ineficazes por uma advertência visceral e direta que alinhasse a nossa experiência com a prática real da informação.

(Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE)

Investimentos e Notícias (São Paulo), 15/09/2009, 19:18hs, http://investimentosenoticias.com.br/IN_News.aspx?Parms=2639678,408,100,2


Um comentário:

  1. Gostei da sua linha de pensamentos, se tivéssemos tempo mais para pensar e trabalhar em cima de um objetivo acho que nosso País poderia ir mais além.

    Parabéns Prof. Ruy.

    ResponderExcluir