segunda-feira, 14 de dezembro de 2009

Educação e Aprendizado Usando Videogames

Educação e Aprendizado Usando Videogames

E-mailImprimirPDF

14 de dezembro de 2009 - Difícil contestar a máxima de que o bom educador é aquele que é capaz de engajar seu(s) discípulo(s). Educar é despertar para um certo conhecimento, e nada melhor que o interesse genuíno e o engajamento do próprio educando para que o ensinamento seja absorvido.

Segundo um relatório recente da empresa de pesquisa de mercado The NPD Group (“Kids and Gaming 2009”), 82% das crianças e adolescentes americanos entre 2 e 17 anos de idade (cerca de 56 milhões de pessoas) são adeptos do videogame.

Com 10,6 horas por semana em média, os da faixa etária entre 12 e 14 anos são os que dedicam o maior tempo ao jogo eletrônico.

Em matéria recente no New York Times (“Educational Video Games Mix Cool With Purpose”, 01/11/09), Stefanie Olsen relata que é cada vez maior o número de crianças americanas que estão jogando videogames educacionais como parte de seu currículo escolar, seja em programas extra-escola ou na internet a partir de casa. Conforme constatam diversos especialistas, entre os quais Angela McFarlane da Univ de Bristol (Inglaterra) em relatório intitulado “Report on the educational use of games”, os chamados “jogos de computador” propiciam um forum no qual o aprendizado surge como resultado de tarefas estimuladas pelo conteúdo do jogo, o conhecimento é desenvolvido através do conteúdo do jogo, e as habilidades são desenvolvidas como resultado do ato de jogar. Como explorar todo o potencial do videogame na melhoria do ensino e do aprendizado tem sido um contraponto um tanto positivo à visão mais mundana de que os jogos eletrônicos pouco ou nada têm a acrescentar no quesito educação.

Como diz Olsen, depois de anos assistindo a tecnologia transformar a maneira através da qual as crianças brincam, socializam e aprendem, muitos acadêmicos, fundações e agora startup’s têm trabalhado no desenvolvimento de jogos que farão bom uso da paixão das crianças pelo videogame. A diferença em muitos dos jogos educacionais de hoje em dia é que eles são “online” e sociais, permitindo que as crianças interajam e colaborem durante o jogo para atingir objetivos comuns. Diferentemente dos jogos encapsulados numa caixa tão comuns nos anos 1980 e 1990, os jogos educacionais mais recentes são montados como serviços através dos quais a criança pode entrar num mundo virtual, experimentar assumir um determinado personagem e resolver problemas que podem ter relação com o mundo real. Além disso, os jogos mais recentes trabalham conceitos de matemática, ciência ou linguagem de tal modo que eles estejam incorporados na própria mecânica do jogo, ao invés de passar a impressão ao jogador de que aquilo se trata de mais uma tarefa escolar.

Com efeito, é cada vez maior a cooperação entre educadores e projetistas de videogames. Em matéria no portal da Agência Reuters (“Video games take bigger role in education”, 10/12/09), John Gaudiosi constata que à medida que a chamada “geração dos nativos digitais” cresce jogando videogames, educadores estão mais e mais desenvolvendo parcerias com desenvolvedores de jogos e cientistas para criar novas experiências interativas para a sala de aula. Em destaque um trio de novos jogos que foram desenvolvidos para tornar mais acessíveis e divertidos para a criançada assuntos como cultura, biologia molecular e exploração espacial.

Do mesmo modo que crianças e adolescentes abraçaram videogames musicais como o “Guitar Hero 5” da Activision e o “The Beatles: Rock Band” da MTV Games, educadores e pesquisadores esperam que jogos como “Immune Attack”, “Discover Babylon”, e “Astronaut: Moon, Mars & Beyond” caiam na preferência dessa nova geração.
A Escape Hatch Entertainment, desenvolvedora de jogos para a “Federation of American Scientists” (“Federação de Cientistas Americanos”, abrev. FAS), criou o “Immune Attack ” com vistas a imergir adolescentes entre 12 e 17 anos no mundo microscópico das proteínas e células do sistema imunológico do ser humano. O objetivo do jogo é salvar um paciente de uma infecção bacteriana, e a própria dinâmica do jogo permite que se adquira um entendimento de biologia celular e ciência molecular. Segundo Ann Stegman, gerente do programa da FAS, foi possível concluir a partir de pesquisas com as crianças que jogaram o Immune Attack que elas absorveram muito mais que apenas vocabulário: aprenderam como o mundo das células funciona, incluindo conceitos complexos como as funções dos Monócitos e as interações moleculares entre fatores de complemento humanos e proteínas de superfície bacteriais.

Já pelos idos de 2001 a FAS começava a coletar material sobre como a tecnologia poderia ser usada para transformar a educação. Reunindo cerca de 100 pesquisadores da academia, do governo, e do setor privado, a FAS lançou o programa “Learning Science and Technology Research and Development Roadmap” (“Roteiro para o Desenvolvimento e Pesquisa para o Aprendizado de Ciência e Tecnologia”). O trabalho colaborativo dos participantes desse programa identificaram áreas chave para a pesquisa e o desenvolvimento dos sistemas de aprendizado de nova geração, e submeteram os dados e subsídios necessários ao Congresso americano para uma legislação que foi aprovada em 2008 autorizando o estabelecimento de um Centro Nacional para a Pesquisa em Tecnologias Digitais e da Informação Avançadas. A rigor, com esse programa a FAS iniciou em 2004 um experimento ousado para provar que o videogame poderia ensinar e treinar pessoas. O recém formado Programa de Tecnologias de Aprendizado da FAS (FAS-LTP) acabou recebendo financiamento federal para o projeto e o desenvolvimento de jogos de aprendizagem. E aí, o FAS-LPT veio a produzir também o “Multi Casualty Incident Responder”, um videogame que, através de simulação, treina bombeiros para reagir em casos concretos de eventos com múltiplos sinistros. Adicionalmente, o FAS-LPT desenvolveu, em parceria com a Iniciativa de Biblioteca Digital Cuneiforme da UCLA, a Escape Hatch Entertainment, e o Walters Art Museum, o “Discover Babylon”, um jogo imersivo em 3D para a faixa etária 8-12 que ensina sobre o significado da Mesopotâmia na cultura mundial usando objetos de museu e de bibliotecas.

Por sua vez, a NASA, através do projeto “NASA Learning Technologies” (NASA-LT) tem investido no desenvolvimento de tecnologias que possam produzir conteúdo através de aplicações inovadoras de tecnologias para melhorar a educação nas áreas de ciência, tecnologia, engenharia e matemática, aí incluídos os videogames que propiciem o aprendizado da astronomia e da exploração espacial, dos quais “Astronaut: Moon, Mars & Beyond” e “Moonbase Alpha” são os produtos em vias de serem lançados ao público. Segundo a NASA, os ambientes sintéticos imersivos persistentes na forma de jogos online multijogadores massivos (MMO) e mundo virtual social estão de fato chamando à atenção como ambientes educacionais e de treinamento. Os MMO’s permitem que os jogadores desenvolvam e exercitem um conjunto de habilidades sofisticadas tais como pensamento estratégico, análise interpretativa, resolução de problemas, formulação e execução de planos, formação de equipes e colaboração, e adaptação à mudança rápida.

O fato concreto é que o poder dos videogames como ferramentas educacionais está rapidamente ganhando reconhecimento.

Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE

Investimentos e Notícias (São Paulo), 14/12/2009, 14:58hs, http://www.investimentosenoticias.com.br/ultimas-noticias/artigos-especiais/educacao-e-aprendizado-usando-videogames.html

Blog de Jamildo (Jornal do Commercio Online, Recife), 14/12/2009, 10:08hs, http://jc3.uol.com.br/blogs/blogjamildo/canais/artigos/index.php

terça-feira, 8 de dezembro de 2009

As Tecnologias da Web 2.0 e o Paradigma ‘Enterprise 2.0’

As Tecnologias da Web 2.0 e o Paradigma ‘Enterprise 2.0’

E-mailImprimirPDF

8 de dezembro de 2009 - Num momento em que as tecnologias de comunicação incorporam o chamado software social, que permite aos seus usuários interagir e compartilhar dados complexos de forma ágil e fácil, tirar proveito do poder dessas novas tecnologias é crítico para que as empresas permaneçam competitivas alavancando o poder dos efeitos de rede de seus empregados. Isso sem falar na necessidade de atração e retenção da próxima geração de empregados mais jovens e mais espertos, bem como no aproveitamento da onda de inovação na internet (blogs, redes sociais, wikis) beneficiando-se do potencial inexplorado da sua força de trabalho nas áreas de inovação, colaboração, e produtividade.


Em seu artigo seminal “Enterprise 2.0: The Dawn of Emergent Collaboration” (MIT Sloan Management Review, 2006), Andrew McAfee observa que a maioria das tecnologias da informação utilizadas pelos chamados “empregados do conhecimento” podem ser classificadas em duas categorias: canais e plataformas. Típicos do e-mail e da mensagem instantânea, os canais propiciam que a informação digital seja criada e distribuída por qualquer um, mas o grau de comunalidade dessa informação é muito baixo, mesmo que todos tenham sua caixa de mensagem no mesmo servidor, ou que utilizem uma mesma lista de discussão. Por outro lado, nas plataformas (tais como intranets, portais corporativos, e portais de informação) o conteúdo é gerado, ou pelo menos aprovado, por um pequeno grupo, mas é visível amplamente, pois, diferentemente do caso dos canais, a produção de informações é centralizada e a comunalidade é alta. O fato é que estamos situados no ponto de inflexão no que diz respeito à evolução dos meios de comunicação: se o e-mail foi revolucionário quando surgiu, hoje podemos nos comunicar utilzando blogs e páginas web. Bem diferente do vai-e-vem do e-mail, que se configura como um meio de comunicação inerentemente privado, a comunicação por plataforma é inerentemente pública, isto é, por natureza apropriada para o compartilhamento.

Do ponto de vista da comunicação entre os empregados do conhecimento de uma dada corporação, as tecnologias atualmente utilizadas não parecem oferecer o melhor dos ambientes para a captura desse conhecimento coletivo. Comunicando-se através de canais, que não podem ser acessados por ninguém além do destinatário da mensagem, e visitando portais sobre os quais não podem depositar contribuições, esses empregados terão dificuldade em descobrir, por exemplo, quem está trabalhando em questões semelhantes, quais são os tópicos em maior evidência no setor de pesquisa e desenvolvimento da corporação, qual a melhor forma de abordar determinada análise.
Com a evolução da internet interativa, a popularização das redes sociais, dos blogs, e das wikis, aos poucos a cultura de colaboração começa a invadir as práticas corporativas. Como diz McAfee em artigo recente no Harvard Business Review (“Shattering the Myths About Enterprise 2.0”, Nov 2009), a colaboração digital está a todo vapor no mundo dos negócios. Em todos os setores da indústria observa-se que as empresas estão aderindo às plataformas de software que propiciam aos seus empregados produzirem mais e com melhor qualidade. Um estudo de Maio de 2009 da Forrester Research revelou que quase 50% das empresas nos EUA usam algum tipo de software social. Por sua vez, um levantamento da Prescient Digital Media de Julho de 2009 apontou que 47% dos entrevistados estavam usando wikis, e 46% utilizavam forums de discussão internos.

Subjacente a toda essa tendência está a chamada “Web 2.0”, termo inventado em 2004 pelo blogueiro e entusiasta do software social Tim O’Reilly para se referir à capacidade da internet de permitir a qualquer pessoa, mesmo não envolvida com tecnologia, que se conecte com outras pessoas e possa contribuir com conteúdo. Desde as redes sociais como Facebook, passando pelo microblog Twitter, pelo portal de videos produzidos pelo usuário YouTube, até a fenomenal enciclopédia coletiva Wikipedia, muitos são os exemplos bem sucedidos que consolidam essa tendência. Em seu artigo supracitado de 2006, McAfee usou o termo ‘Enterprise 2.0’ para chamar à atenção para o fato de que algumas empresas mais espertas estavam incorporando as tecnologias da Web 2.0, assim como a abordagem subjacente para a colaboração e a criação de conteúdo. De lá para cá, o termo deu origem a um verdadeiro movimento de modernização da cultura de utilização de tecnologia da informação nas práticas corporativas, chegando a representar uma alternativa supostamente mais apropriada (para a dinâmica de avanços da atualidade) que a abordagem mais tradicional representada pelos sistemas de “Enterprise Resource Planning” (ERP) que se prestam para o gerenciamento de todo o fluxo de informações de uma corporação a partir de dados compartilhados. Segundo McAfee, o diferencial da abordagem Enterprise 2.0 é da própria natureza das tecnologias da internet interativa: não há uma estrutura imposta a priori na comunicação, pois a estrutura emerge da própria dinâmica da interação colaborativa, e isso pode ser extremamente benéfico para os quesitos inovação e compartilhamento do conhecimento de uma dada corporação.

Ainda segundo McAfee, o termo ‘Enterprise 2.0’, que se tornou também o título de um encontro anual que “promove uma visão abrangente das mais importantes tecnologias e iniciativas organizacionais necessárias para sustentar uma vantagem competitiva no mercado mutante de hoje em dia”, diz respeito a como uma organização usa plataformas de software social emergente (em inglês, “emergent social software platforms”, abrev. ESSP) para perseguir seus objetivos. E a idéia é que essa definição enfatize o aspecto mais contundente dessas novas tecnologias: nada de impor workflows, papéis e responsabilidades pré-determinados, ou interdependências entre as pessoas, mas sim permitir que venham a emergir a partir da dinâmica de formação das redes de relacionamentos.

Vários são os benefícios dos ESSP’s, a começar por oferecer um serviço de busca, facilitando que as pessoas encontrem informações e orientação, e minimizando assim a duplicação de esforços. Além do mais, os processos de inovação são abertos a mais pessoas, e dessa forma o aproveitamento da inteligência coletiva pode ser significativamente melhorado. Como se não fosse bastante, aos executivos abre-se a possibilidade de dispor de um repositório atualizado em tempo real de tudo que se refere ao conhecimento que a corporação detém.

Há, no entanto, resistência à adoção da abordagem Enterprise 2.0 devido sobretudo ao fato de que se receia que os riscos se sobreponham aos benefícios. Desde a utilização das plataformas para a circulação de conteúdo inapropriado, até o vazamento de informações confidenciais, passando pelo risco da circulação de informação incorreta ou recomendação equivocada, todas essas críticas são analisadas e refutadas por McAfee em seu artigo supracitado.
Na introdução de seu livro que acaba de ser publicado, “Enterprise 2.0: New Collaborative Tools for Your Organization's Toughest Challenges” (Harvard Business School Press, 16/Novembro/2009), McAfee diz que o uso de tecnologia para juntar as pessoas e deixá-las interagir sem especificar como parece uma receita para o caos, mas é exatamente o contrário: padrões e estrutura emergem mesmo não tendo sido impostas a priori.
08
Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE

Investimentos e Notícias (Sáo Paulo), 08/11/2009, 10:22hs, http://www.investimentosenoticias.com.br/ultimas-noticias/artigos-especiais/as-tecnologias-da-web-2-0-e-o-paradigma-enterprise-2-0.html


segunda-feira, 9 de novembro de 2009

A Contracultura Matemática e o Espírito Libertário

A Contracultura Matemática e o Espírito Libertário

SEG, 09 DE NOVEMBRO DE 2009 08:14 IN

9 de novembro de 2009 - Diz-se excêntrico, segundo o Houaiss, do “indivíduo que age ou pensa de maneira original, extravagante, fora dos padrões considerados normais ou comuns.

O que dizer de um matemático que, após (1) resolver um dos problemas mais difíceis do milênio de forma reconhecidamente engenhosa e criativa, (2) publicar seus resultados em página da internet sem o devido “peso” de reconhecimento formal como é o caso de revistas científicas tradicionais, e (3) recusar os prêmios a que teria direito (uma Medalha Fields, o mais prestigioso prêmio a que um matemático pode aspirar, e uma premiação em dinheiro no valor de um milhão de dólares concedida por uma espécie de fundação sem fins lucrativos para o desenvolvimento da matemática), recusa ofertas de emprego como professor em algumas das melhores universidades do mundo (Princeton, Stanford)? Além de toda essa renúncia, esse indivíduo de capacidade intelectual privilegiada ainda declara que todas essas ofertas não passam de graves insultos, pois acredita que a monetização da realização é o pior dos insultos à matemática. Mais ainda, decide deixar a matemática, e, segundo se conta, continua vivendo com sua mãe na periferia de São Petersburgo. A bem da verdade, esse mesmo sujeito excêntrico já em 1996 havia se recusado a receber um prêmio para jovens matemáticos a ele concedido pela Sociedade Européia de Matemática.

Trata-se de Grigori Perelman, matemático russo nascido em 1966 na então Leningrado (hoje São Petersburgo), que resolveu a “conjectura de Poincaré”, um enunciado matemático declarado num artigo de 1904 pelo gênio francês Henri Poincaré (1854-1912) sobre a caracterização da espaço esférico tridimensional entre as superfícies tridimensionais. Em poucas palavras, a conjectura (hoje considerada teorema devido a Perelman) dizia que se qualquer laço num certo tipo de espaço tridimensional puder ser encolhido a um ponto sem desatar o laço nem rasgar o espaço, então o espaço é equivalente a uma esfera. No final das contas, o que Poincaré sugeriu foi que qualquer coisa que não tenha buracos tem que ser uma esfera. Essa “qualquer coisa” tinha que ser o que os matemáticos chamam de compacto, ou fechado, o que significa que tem uma extensão finita: não importa o quanto você espicha numa direção ou na outra, você só consegue chegar a uma certa distância até que comece a voltar. No caso de duas dimensões, como a superfície de uma esfera ou de uma rosquinha, imagine um elástico em volta de uma maçã e outro em torno de uma rosquinha. Na maçã, o elástico pode ser encolhido sem limite, enquanto que na rosquinha ele acaba impedido pelo buraco no meio. Com três dimensões, é mais difícil discernir o formato geral de um objeto, pois não conseguimos ver onde estão os buracos. Não é à toa que os astrônomos ainda discutem sobre o formato do universo: se é uma esfera, uma rosquinha , ou algo mais complicado.

Em Novembro de 2002, Perelman depositou num repositório de arquivos científicos na internet chamado “arXiv” o primeiro de uma série de três artigos nos quais reivindicava ter obtido uma demonstração da chamada conjectura da geometrização, um resultado que inclui a conjectura de Poincaré como um caso particular. Tendo depositado o último dos artigos em Julho de 2003, e essencialmente sumido do mapa, Perelman acabou tendo seu argumento oficialmente confirmado como correto pela comunidade científica em Agosto de 2006 por ocasião do Congresso Internacional de Matemáticos realizado em Madrid.

Em matéria publicada em 06/11/09 no Wall Street Journal intitulada “Russia’s Conquering Zeros”, Masha Gessen diz que “pode não ter sido mero acidente que, enquanto algumas das mentes americanas mais privilegiadas trabalhavam para resolver um dos problemas mais difíceis do século, foi um matemático russo trabalhando na Rússia que, no início dessa década, finalmente triunfou.” Trata-se essencialmente de uma apresentação de seu mais recente livro sobre a saga de Perelman, “Perfect Rigor: A Genius and the Mathematical Breakthrough of the Century” (Houghton Mifflin Harcourt, Novembro 2009) no qual Gessen, embora sem ter tido a chance de encontrá-lo pessoalmente, conta a estória desse gênio excêntrico russo sob o ponto de vista de uma ex-aluna no sistema educacional do qual ele foi um produto. No regime soviético, os matemáticos trabalhavam isolados de seus pares do mundo ocidental, mas eram incentivados e treinados para servir ao Estado, como, por exemplo, eram recrutados por um sistema concebido para preparar estudantes para participar de competições matemáticas internacionais. O talento de Perelman foi reconhecido logo cedo, e os resultados apareceram sob forma de uma medalha de ouro na Olimpíada Internacional de Matemática em 1982. (Diga-se de passagem, um dos legados disso tudo impressiona: na série de competições internacionais de programação de computador organizada pela Association for Computing Machinery (ACM) e apoiada pela IBM desde os anos 1970’s – International Collegiate Programming Contest – em todos os anos pelo menos uma instituição de São Petersburgo está entre os 3 primeiros lugares desde 1998 quando a Europa Oriental passou a participar com freqüência.)

Por não fazer parte dos mais chegados aos círculos do poder, além de sofrer discriminação devido ao anti-semitismo soviético, Perelman cresceu em meio ao que Gessen chama de “contracultura matemática”: “na contracultura matemática, matemática era quase um hobby,” conforme lembra Sergei Gelfand. “Portanto você poderia passar todo o seu tempo fazendo coisas que não seriam úteis a ninguém daqui até a década mais próxima.” Os matemáticos chamavam de “matemática pela matemática.” Não havia qualquer recompensa material – nenhuma posição acadêmica, nada de dinheiro, nenhum apartamento, nenhuma viagem – e tudo que se esperava ganhar era o respeito de seus pares. “A matemática, não apenas garantia a promessa de trabalho intelectual sem a interferência do estado mas também de algo que não existia em mais nenhum recanto da sociedade soviética: uma verdade única passível de ser conhecida.” “Perelman é filho dessa contracultura matemática soviética, e ainda acredita numa única verdade como auto-evidente: a matemática como ela deve ser praticada, a matemática como o derradeiro vôo da imaginação, é algo que o dinheiro não pode comprar, ” conclui Gessen.
Com ou sem contracultura, Perelman é o que podemos chamar de exemplo não apenas de puro talento matemático, mas de integridade e de espírito libertário: o direito de agir ou pensar de maneira original, extravagante, fora dos padrões considerados normais ou comuns, e ainda assim contribuir de modo decisivo para o bem comum.

Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE

ÚLTIMA ATUALIZAÇÃO ( SEG, 09 DE NOVEMBRO DE 2009 08:16 ) Investimentos e Notícias (São Paulo), 09/11/2009, 08:14hs, http://www.investimentosenoticias.com.br/ultimas-noticias/artigos-especiais/a-contracultura-matematica-e-o-espirito-libertario.html

terça-feira, 3 de novembro de 2009

Humanos como Sensores

Humanos como Sensores

TER, 03 DE NOVEMBRO DE 2009 07:53 IN
3 de novembro de 2009 - Com a disponibilidade do iPhone, assim como de uma gama de aparelhos celulares de última geração conhecidos como smartphones, que, via de regra, dispõem de sensores tais como camera (foto e vídeo), acelerômetro, sensor de posicionamento global (GPS), sensor de proximidade, e magnetômetro (bússola digital), além do fácil acesso à internet, cada ser humano passa a ter a capacidade concreta de agir como um sensor inteligente, e suas observações podem ser cruciais numa situação de desastre natural.
Eventos de grande impacto tais como o tsunami que devastou partes do sudeste da Ásia, e o Furacão Katrina que tantos estragos trouxe a Nova Orleans, chamaram à atenção para a importância da informação geográfica em todos os aspectos do gerenciamento da emergência, assim como para os problemas que surgem logo após o evento ainda nos momentos em que as imagens ainda não estão disponíveis aos organismos de socorro e assistência. Não apenas os satélites de observação da Terra podem não passar pelas áreas afetadas durante dias, como também as próprias imagens eventualmente coletadas assim como as ações de aeronaves deslocadas para a região podem estar prejudicadas por nuvens e possivelmente fumaça. As condições em terra também podem estar dificultando a captura e o registro de imagens, seja por falta de energia, conexões de internet, ou pane em computadores ou software.
Por outro lado, a população da área atingida, além da inteligência humana, tem o privilégio da familiaridade com a região, e hoje tem à sua disposição uma combinação extremamente poderosa: a telefonia móvel e a internet interativa. Trata-se de uma realidade que se consolida a cada dia: o amplo e crescente engajamento de grandes quantidades de cidadãos comuns, frequentemente com pouca qualificação formal, na criação de informações geográficas, uma função que durante séculos tem sido reservada a agências oficiais. Em sua grande maioria, são cidadãos sem o devido treinamento científico (por isso sua participação nessa coleta de informações tem sido chamada de “ciência do cidadão”), cujas ações são quase sempre voluntárias, e cujos resultados podem ou não ser cientificamente precisos. Mas, coletivamente representam uma espetacular inovação que deverá ter profundos impactos sobre sistemas de informação geográfica. Trata-se da “informação geográfica voluntarizada” (em inglês, “volunteered geographic information”), termo inventado pelo geógrafo Michael Goodchild em seu artigo “Citizens as Sensors: The World of Volunteered Geography” (“Cidadãos como Sensores: O Mundo da Geografia Voluntarizada”), publicado em 2007 no International Journal of Spatial Data Infrastructures Research, para se referir a um caso especial do fenômeno de internet mais geral concernente a conteúdo gerado pelo usuário.
A Wikipedia é um exemplo amplamente conhecido e extremamente bem sucedido desse processo também denominado “crowdsourcing”, termo cunhado por Jeff Howe num artigo publicado no número de Junho de 2006 da revista Wired para se referir ao ato de tomar tarefas tradicionalmente executadas por um empregado ou um contratado, e terceirizá-las a um grupo de pessoas ou comunidade – em inglês, “crowd” – na forma de uma chamada aberta. Nesse processo, indivíduos são capazes, por exemplo, de fornecer os verbetes de uma vasta enciclopédia que é gerenciada por um grupo comparativamente pequeno de revisores e administradores. Tais serviços tipicamente permitem o registro e a manutenção do que se chama tecnicamente de “metadados” de forma razoavelmente estruturada. No caso da Wikipedia, por exemplo, os usuários são capazes de acessar a história completa de qualquer verbete, inclusive todas as versões anteriores e as respectivas modificações. A mudança em relação ao processo tradicional de produção de uma enciclopédia é marcante: ao invés de uma estrutura administrativa elaborada que recruta um certo número de autores, espera por suas contribuições, edita, harmoniza, e imprime o resultado, um processo que pode durar anos, a Wikipedia é montada continuamente, e seus verbetes aparecem praticamente de forma instantânea. Erros normalmente são identificados e retificados pelos próprios usuários. Mesmo não tendo a autoridade conferida por uma editora reconhecida, a Wikipedia já serviu de base para mais de muitas sentenças judiciais emitidas nos EUA: um artigo de 2007 do New York Times (“Courts Turn to Wikipedia, but Selectively”, por Noam Cohen, 29/01/07) dizia que “mais de 100 sentenças judiciais se basearam na Wikipedia, começando em 2004, incluindo 13 dos tribunais de apelação, um degrau antes da Suprema Corte”.
Com o advento do Twitter, surge o crowdsourcing de tempo real, que aliás ganhou ainda mais utilidade quando a ênfase em sua página inicial passou de “O que você está fazendo agora?” para “Veja o que as pessoas estão falando sobre...” . Trata-se de um convite a uma busca a ser realizada sobre os comentários que circulam “agora” na rede social. Pois bem, o U.S. Geological Survey (“Serviço de Pesquisa Geológica dos EUA”) reconhece o valor da informação de crowdsourcing proveniente do Twitter, e desenvolve um sistema que utiliza resultados de busca do serviço de microblog para recuperar e mapear informações sobre terremotos em tempo real. O “USGS: Twitter Earthquake Detector” pretende coletar mensagens relacionadas a terremotos e mapeá-las de modo a propiciar a detecção de terremoto dentro de 60 segundos do ocorrido, um grande avanço em relação aos 2 a 20 minutos necessários aos sistemas científicos atuais de alerta. Usando o Twitter para esse propósito permite não apenas o conhecimento relativamente instantâneo do terremoto, mas também a disponibilidade em primeira mão do grau de destrutibilidade através de fotos e imagens do local do evento fornecidas por “humanos como sensores”.
Durante a Conferência “Web 2.0 Summit 2009”, realizada de 20 a 22/10/09 em San Francisco, Brady Forrest do grupo O'Reilly Media organizou um painel intitulado “Humans As Sensors”, para o qual convidou representantes de quatro organizações que trabalham com aplicativos inovadores utilizando sensores: Markus Tripp (Mobilizy), Deborah Estrin (Departamento de Ciência da Computação, UCLA), Sharon Biggar (Path Intelligence), e Di-Ann Eisnor (Waze).
O Waze é um aplicativo de crowdsourcing de tempo-real e de mapeamento ao vivo. Funciona nos principais modelos de smartphone, e seu serviço é denominado por seus criadores de “cartografia transacional”, pois propicia navegação passo a passo no trânsito baseada em informações de crowdsourcing de tempo real coletadas das mais diversas fontes: Twitter, banco de dados sobre informações típicas daquela localização (velocidade média de tráfego, por exemplo).
A Path Intelligence traz inovação ao mundo das vendas a varejo, em particular os chamados shopping centers, através de um aplicativo chamado “FootPath”: o sistema consiste de um pequeno número de unidades de monitoração instaladas num shopping Center que calculam o movimento de consumidores sem que haja a necessidade de que os consumidores estejam portando algum equipamento, pois as pquenas “torres” medem os sinais que vêm dos seus aparelhos celulares usando uma tecnologia que pode localizar a posição de um determinado consumidor com uma margem de 1 a 2 metros. As unidades alimentam esses dados (24 horas por dia, 7 dias por semana) a um centro de processamento no qual os dados são auditados e uma análise estatística sofisticada é aplicada para criar informações continuamente atualizadas sobre o fluxo de consumidores dentro do shopping center. E a qualquer momento a gerência do shopping center pode acessar esses dados através da internet, e tomar providências baseadas em informações de tempo real. Sharon Biggar, representante da Path Intelligence, sugere uma analogia com o Google Analytics, pois trata-se de coletar dados de sensores, e analisá-los, tudo isso disparado por sinais dos próprios aparelhos celulares, sem a necessidade de instalação de software ou equipamento especial.
Exemplo de verdadeiro engajamento de humanos como sensores, o projeto de “sensoriamento participativo” liderado pela Professora Deborah Estrin da Universidade da Califórnia em Los Angeles, impressiona pelo seu potencial cívico: numa das aplicações de sensoriamento participativo, visitantes de determinados parques nacionais americanos podem contribuir diretamente no controle de ervas daninhas invasivas cujas espécies já se sabe que atacam determinadas regiões, informando a um portal específico (“whatisinvasive.com”), através de imagens e localizações exatas, a ocorrência de tais plantas nocivas ao ecossistema do parque sendo visitado. No mesmo sentido, cidadãos podem informar ao portal quais ervas invasivas ainda não cadastradas estão prejudicando a flora e/ou fauna em sua região, de modo a tentar clamar por ajuda. Ao mesmo tempo que oferece ao indivíduo a chance de contribuir explicitamente com dados para o bem comum, o sensoriamento participativo pode ser usado para o benefício imediato do indivíduo, no que Estrin classifica como captura implícita de dados: o projeto “bikestatic.com” mantém um banco de dados sobre rotas de ciclistas urbanos que são coletados com base nos dados capturados pelos sensores de localização e locomoção dos celulares de ciclistas participantes, e essa informação serve ao indivíduo na medida que o informa sobre duração da jornada, nível de poluição sonora e ambiental nos trechos do percurso, e até mesmo o grau de violência urbana que o ciclista pode encarar conforme o trecho.
E a mensagem do projeto de sensoriamento participativo é cativante: “se você não pode ir a campo com o sensor que você deseja, vá com o sensor que você tem”.

(Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE)
ÚLTIMA ATUALIZAÇÃO ( TER, 03 DE NOVEMBRO DE 2009 07:56 )

terça-feira, 27 de outubro de 2009

A Natureza e a Evolução da Tecnologia

A Natureza e a Evolução da Tecnologia

TER, 27 DE OUTUBRO DE 2009 00:42 IN

27 de outubro de 2009 - Embora cientes de que a tecnologia se faz cada vez mais presente na vida contemporânea, não raro nos deparamos com um sentimento dúbio. Foi devido a avanços tecnológicos que muitas vidas têm sido salvas quando em outras épocas teriam perecido, e certamente é a tecnologia que nos separa da Idade Média, e, naturalmente, da forma como vivíamos há 50 mil anos ou mais.
Hoje a tecnologia é parte integrante do nosso modus vivendi: ora nos traz divertimento, ora frustrações, ora deslumbramento com o que nós humanos criamos, e às vezes indagações sobre o que está fazendo de nossas vidas. Mais do que qualquer coisa, a tecnologia tem moldado o nosso mundo, pois tem sido fundamental na criação de riqueza, no desenvolvimento da economia e da própria interação social. Ainda assim permanece um profundo desconforto, e não é apenas devido ao receio de que a tecnologia cause novos problemas para cada problema que ela resolve. Depositamos confiança de que serão os avanços tecnológicos que farão nossas vidas melhorar, e que resolverão alguns de nossos problemas mais graves, de modo a nos livrar do sofrimento e a garantir o futuro das novas gerações. Não obstante, nossa confiança não está nessa esperança, mas na nossa verdadeira origem que é a natureza. É claro que diante da tecnologia utilizada na terapia regenerativa com células-tronco vem um sentimento de esperança, mas ao mesmo tempo surge um questionamento mais profundo: quão natural é essa tecnologia? Como diz W. Brian Arthur em seu mais novo livro “The Nature of Technology: What It Is and How It Evolves” (“A Natureza da Tecnologia: O Que É e Como Evolui”, Free Press, Agosto 2009), “somos apanhados no meio de duas enormes e inconscientes forças: nossas esperanças mais profundas como humanos residem na tecnologia, mas nossa mais profunda confiança repousa sobre a natureza. Essas forças são como placas tectônicas esfregando inexoravelmente uma contra a outra numa colisão longa e lenta.”
E essa colisão não seria nova, ao contrário, mais do que qualquer outra coisa ela estaria definindo nossa era. “A tecnologia está permanentemente criando as questões e as convulsões dominantes do nosso tempo. Estamos saindo de uma era na qual máquinas melhoravam o natural – aceleravam nossos movimentos, economizavam nosso suor, costuravam nossas roupas – para uma que traz tecnologias que se parecem com ou substituem o natural – engenharia genética, inteligência artificial, dispositivos médicos implantados em nosso corpo.” “À medida que aprendemos a usar essas tecnologias, estamos passando de usar a natureza para intervir diretamente na natureza. E portanto a estória desse século será sobre o choque entre o que a tecnologia oferece e aquilo com o qual nos sentimos confortáveis,” acrescenta Arthur.
Brian Arthur, engenheiro e economista, é um pensador influente em tecnologia, economia, e a chamada ciência da complexidade (a ciência do como padrões e estruturas se auto-organizam), tendo sido recipiente do prestigioso “Schumpeter Prize in Economics”, e do “Lagrange Prize in Complexity Science”. É mais conhecido por seu trabalho sobre o impacto dos retornos crescentes (em inglês, “increasing returns”) nas economias: a lei econômica que regula os negócios modernos baseados no conhecimento tal como o software. Arthur demonstrou como, particularmente nas indústrias orientadas a tecnologia, vantagens iniciais e eventos aleatórios podem levar a posições de monopólio. Sua pesquisa ganhou importância e influência na época do processo anti-truste movido nos anos 1990’s pelo Departamento de Justiça dos EUA contra a Microsoft.
Motivado pelo fato de que certas questões fundamentais sobre tecnologia ainda não dispõem de respostas satisfatórias, tais como ‘de onde vêm as novas tecnologias?’, ‘como funciona a invenção?’, ‘o que constitui inovação e como se chega até ela?’, Arthur apresenta sua teoria sobre as origens e a evolução da tecnologia, oferecendo uma explicação de como as novas tecnologias transformadoras emergem e como a inovação realmente funciona. Segundo ele, a tecnologia evolui tal qual um recife de corais se forma a partir de atividades de pequenos organismos – criando-se a partir de si próprio –, e toda tecnologia é uma combinação de tecnologias anteriores. O recife é um sistema ecológico com muitas espécies, e a tecnologia no sentido mais amplo é uma estrutura em constante mudança feita de milhares de tecnologias discretas, elas próprias compostas de outras tecnologias.
A intenção é estabelecer um arcabouço de uma teoria evolucionária da tecnologia que possa explicar por que certas regiões como Cambridge (Inglaterra) nos anos 1920’s e o Vale do Silício nos dias de hoje agem como viveiros da inovação. Arthur acredita que sem evolução, isto é, sem um sentido de relacionamento comum, tecnologias parecem nascer independentemente e melhorar independentemente. Cada uma delas deve vir de algum processo mental não explicado, alguma forma de “criatividade” ou “thinking outside the box” (expressão em inglês usada para se referir ao pensar diferente, de forma não convencional, ou a partir de uma nova perspectiva, normalmente no sentido de pensamento inteligente, criativo, novo) que a faz existir e a desenvolve separadamente. Por outro lado, com evolução (se nos for dada a chance de descobrir como funciona), as novas tecnologias nasceriam de uma forma precisa a partir de tecnologias anteriores, mesmo que com a ajuda de uma considerável “parteira mental”, e se desenvolveriam através de um certo processo de adaptação bem entendido. Assim, se pudéssemos entender a evolução, poderíamos entender aquele que é o mais misterioso dos processos: inovação.
A busca por uma teoria abrangente da inovação levou a conclusões pouco convencionais, como por exemplo, a de que o relacionamento entre ciência e tecnologia é mais simbiótico do que normalmente se acredita. A visão que prevalece é a de que a tecnologia é a serva da ciência – menos pura, mais comercial – porém Arthur defende que ciência e tecnologia andam juntas numa espécie de co-evolução. Como lembra John Markoff em matéria recente no New York Times (“Rethinking What Leads the Way: Science, or New Technology?”, 19/10/09), considere qual seria o estado da ciência sem o microscópio, o telescópio, ou sem os avanços mais recentes como o seqüenciamento automatizado de DNA. Ainda assim haveria ciência, enraizada na percepção e na razão humanas, mas seria bem menos potente que a ciência moderna, que expandiu tecnologicamente os sentidos através de instrumentos de medição altamente sensíveis, e o intelecto por meio de computadores.
Segundo Arthur, as tecnologias evoluem baseadas na constante e caótica recombinação de tecnologias já existentes. Nessa visão, todas as descobertas tecnológicas surgem como novas combinações de componentes tecnológicos existentes, eles próprios tendo surgido da mesma forma. O progresso científico, assim como o tecnológico, é guiado por humanos buscando por um meio para um fim que já tinham definido. Nesse sentido, o argumento de Arthur se assemelha ao de Thomas Kuhn no clássico e controverso “The Structure of Scientific Revolutions” (“A Estrutura das Revoluções Científicas”, University of Chicago Press, 1962) que explora a idéia das “mudanças de paradigma” para explicar o progresso científico. Segundo Kuhn, as teorias científicas acumulariam gradualmente anomalias à medida em que uma nova evidência se desenvolvesse, até que uma crise levasse a um novo paradigma ou modelo teórico. Kuhn defendia que o avanço científico não é evolucionário, mas sim “uma série de interlúdios pacíficos pontuados por revoluções intelectualmente violentas”, e nessas revoluções “uma visão conceitual do mundo é substituída por outra”. No caso do progresso tecnológico, o mercado faz o papel do árbitro na emergência de novas tecnologias, segundo Arthur.
Trata-se de uma visão profundamente social da inovação: o “inventor solitário” é, na verdade, uma invenção, parte da mitologia econômica americana. O gênio aparentemente é sempre alguém que tem um profundo conhecimento das tecnologias existentes e tem a inspiração de combiná-las de novas maneiras. Por essa razão a economia de alta tecnologia é muito mais sobre o “juntar as peças” do que sobre o refinamento de operações fixadas. A economia está se tornando generativa, conclui Arthur. Seu foco está se deslocando de otimizar operações fixadas para criar novas combinações, novas ofertas configuráveis.
O fato é que a tecnologia representativa de hoje não é mais uma máquina com arquitetura fixa realizando uma função fixa. Ao contrário, é um sistema, uma rede de functionalidades – um metabolismo de coisas-executando-coisas que pode sentir seu ambiente e reconfigurar suas ações para executar apropriadamente: trata-se de uma mudança em direção a sistemas “inteligentes”. No futuro tais sistemas não apenas serão auto-configuráveis, auto-otimizadores, e cognitivos, mas também serão auto-montadores, auto-curadores, e auto-protetores. Arthur chama à atenção para o fato de que no passado esses termos não seriam associados à tecnologia, pois trata-se de termos da biologia. O que acontece é que à medida que a tecnologia se torna mais sofisticada, ela também se torna biológica.

(Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE)

ÚLTIMA ATUALIZAÇÃO ( TER, 27 DE OUTUBRO DE 2009 00:44 )



segunda-feira, 19 de outubro de 2009

Os Magnatas da Mídia e a Economia de Colaboração

Os Magnatas da Mídia e a Economia de Colaboração

SEG, 19 DE OUTUBRO DE 2009 10:00 IN
19 de outubro de 2009 - Apesar de todos os indicadores apontarem para a necessidade de mudança no modelo de negócios da indústria da mídia jornalística, alguns de seus líderes dão a impressão de que ainda não entenderam o recado. Em um encontro de executivos da mídia jornalística realizado em Pequim no dia 09/10/09, Tom Curley (Associated Press) e Rupert Murdoch (News Corp.) declararam em tom emocional e desafiador que “está na hora dos engenhos de busca e outros que usam conteúdo de notícias gratuitamente começarem a pagar”. Já há algum tempo que algumas empresas de notícias reclamam que sítios como a Google têm feito fortuna a partir de suas matérias, fotos e vídeos sem produzir uma devida compensação às organizações de notícias que produziram o material. “Nós, criadores de conteúdo, temos sido demasiado lentos em reagir à livre exploração de notícias por terceiros sem retorno ou permissão”, afirmou Curley, executivo da AP diante de uma platéia de 300 líderes da mídia. “Serviços de Web do tipo ‘crowd-sourcing’ tais como Wikipedia, YouTube e Facebook têm se tornado destinos preferidos do consumidor para notícias em primeira mão, desbancando sítios da Web de agências de notícias tradicionais. Nós, criadores de conteúdo, temos que agir rapida e decisivamente para retomar o controle de nosso conteúdo,” continuou Curley. Murdoch, por sua vez, afirmou que “os agregadores e plagiadores em breve terão que pagar um preço pela cooptação de nosso conteúdo. Mas se não aproveitarmos o atual movimento pelo conteúdo pago, serão os criadores de conteúdo—as pessoas nesta audiência—que pagarão o preço no final das contas, e serão os cleptomaníacos de conteúdo que triunfarão.”

Numa palestra em Hong Kong proferida poucos dias antes, Curley já havia declarado que a AP estava considerando vender matérias a alguns clientes online exclusivamente por um certo período, digamos meia hora. Atualmente a AP licencia suas matérias e fotografias a muitos dos principais portais da internet, incluindo Google, Yahoo e o MSN da Microsoft, e seu trabalho é usado também por centenas de sítios da Web de propriedade de jornais e redes de notícias.

Por mais compreensível que seja a manifestação de desespero dos magnatas – afinal de contas a indústria passa por um momento difícil – cabe indagar por que, apesar desse “roubo” estar acontecendo há um bom tempo, não foram tomadas providências para evitá-lo? Em matéria no portal da Newsweek intitulada “Rupert Murdoch Says Google Is Stealing His Content. So Why Doesn't He Stop Them?”(“Rupert Murdoch Diz Que A Google Está Roubando Seu Conteúdo. Portanto, Por Que Ele Não A Impede?”, 09/10/09), Weston Kosova sugere que trata-se de bravata, e explica por que. Se visitarmos a Google News ou fizermos uma busca no portal da Google com uma manchete importante (por exemplo, “Obama wins Nobel”), obtemos links para matérias de diversas agências de notícias. Ao clicar nesses links, somos levados àquele portal de notícias onde a matéria está publicada, e que é normalmente recheado de anúncios. Nesse caso, o que fez a Google? Sem clicar no link não vemos a matéria, mas em caso positivo vamos direto ao portal de notícias que originou a matéria. Daí, ao invés de roubar, a Google na verdade forneceu um serviço gratuito que direciona leitores a portais de notícias que talvez não teriam tanto tráfego sem essa “ajuda”. E os magnatas sabem disso, pois se eles de fato achassem que a Google estava roubando e quisessem impedi-la de direcionar todos aqueles leitores a seus portais de notícias sem pagar nada, eles simplesmente impediriam a Google de fornecer os links a seus portais. De fato, a Google não força os sítios a serem incluídos em suas listas de busca. A rigor, os administradores de um sítio podem removê-lo da lista de resultados da Google simplesmente acrescentando a um arquivo de nome “robots.txt”, residente no sítio, duas linhas: “User-agent: Googlebot”, e “Disallow: /”. Dessa forma o sítio se torna invisível à Google. E isso não é nenhum grande segredo. A própria Google explica, em página de seu portal, o procedimento passo a passo para se chegar a esse efeito. Mesmo assim, nem a AP nem a News Corp. tomaram qualquer atitude para impedir que seus sítios apareçam na lista de resultados da Google. A razão é simples: eles sabem que seu tráfego desapareceria do dia para a noite. Ao que parece, eles preferem encontrar um culpado para suas próprias incapacidades de competir num mercado em constante mudança, conclui Kosova.

Em matéria no portal do Center for Internet and Society da Stanford University intitulada “The Hard Truths about Journalism” (“As Duras Verdades sobre Jornalismo”, 08/09/09), Sarah Hinchliff comenta que às vezes as mudanças são tão básicas e revolucionárias que elas podem ser difíceis de reconhecer. Após ter concluído a leitura do livro mais recente do premiado jornalista da Harvard Kennedy School, Alex Jones, intitulado “Losing the News: The Future of the News That Feeds Democracy” (“Perdendo as Notícias: O Futuro das Notícias que Alimentam a Democracia”, Oxford Univ Press, Setembro 2009), Hinchliff sentiu-se lembrada mais uma vez do quão difícil parece ser para as pessoas na indústria da mídia jornalística reconhecer a simples verdade: a internet eliminou a necessidade da mídia de massa. Embora admitindo que o jornalismo profissional ainda seja de inestimável benefício para a sociedade, no seu entender não vivemos mais num mundo onde cidadãos têm necessariamente que depender de um grupo seleto de “porteiros” para repassá-los informação e notícias. Trata-se de uma mudança de paradigma, e enquanto continuar a não ser reconhecido, as visões para o futuro do jornalismo serão fundamentalmente capengas. Assim, no espírito de catarse, Hinchliff enumera quatro princípios que acredita se constituírem nas verdades sobre o ecossistema das comunicações criado pela internet: (1) somos todos jornalistas hoje em dia, pois jornalismo não é mais uma profissão, mas uma atividade; (2) os dias de glória da mídia de massa comercial já se passaram, pois qualquer um pode ser uma fonte de notícias, e portanto os produtores de notícias têm diante de si dois novos obstáculos: competição ilimitada e escrutinabilidade; (3) os chamados parasitas da notícia são bons para a democracia, e portanto soa no mínimo irônico que as organizações tradicionais de jornalismo tenham atirado a pecha de parasita aos agregadores de notícias e blogueiros; (4) precisamos de menos nostalgia e mais inovação, pois a questão de se o jornalismo sério e investigativo pode ou não ser comercialmente sustentável requer inovação, e a simples nostalgia pelos anos dourados de jornalismo não vai levar a lugar algum.

Ironicamente, a indústria da mídia vive o melhor e o pior dos tempos, como diz L. Gordon Crovitz em artigo de opinião no Wall Street Journal intitulado “Media Moguls and Creative Destruction” (“Magnatas da Mídia e Destruição Criativa”, 12/10/09): melhor porque o custo de publicar notícias, vídeo ou distribuir música nunca esteve tão baixo, e pior pois é difícil encontrar uma empresa, seja da velha ou da nova mídia, tem surgido com um modelo de negócios sustentável. Em recente exemplo de contraste entre a supervalorização de empresas da chamada “nova mídia” e a perda de valor da velha mídia: enquanto que a startup Twitter foi avaliada em US$ 1 bilhão, a revista Gourmet, um ícone em sua categoria, anuncia seu fechamento a partir de Novembro deste ano.

O fato concreto é que na era da internet a indústria da mídia está sob extrema pressão, mas há quem diga que não é apenas por causa da internet. A indústria teria cometido alguns erros fatais baseados em estratégias malfadadas de crescimento e convergência. Além disso, a maioria das empresas de mídia têm tido consistentemente um fraco desempenho por mais de uma geração, mesmo antes da internet surgir como uma força competitiva. Várias estratégias de investimento e aquisição criaram o paradoxo de que, em mídia, quanto mais rápido as receitas crescem, pior é o desempenho das ações na bolsa. E aí veio a internet. De 1995 a 2005, as ações da Disney, Viacom, Time Warner, e News Corp. subiram meros 2,5%, enquanto o índice da Standard & Poors subiu 9%. Adicionalmente, o valor de mais de 100 negócios da era digital realizados desde 2000 por Sony, Time Warner, NBC, Disney, Viacom e News Corp. chegaram a um valor praticamente nulo.

Um novo livro intitulado “The Curse of the Mogul: What’s Wrong with the World’s Leading Media Companies” (“A Maldição do Magnata: O Que Está Errado Com As Empresas Líderes da Mídia”, Portfolio, Outubro 2009), escrito por Jonathan Knee, Bruce Greenwald e Ava Seave, todos professores da Columbia Business School, analisa as razões pelas quais a indústria está em tal estado de penúria. Em artigo no Washington Post (“Good Media Moguls vs. Bad Media Moguls”, 14/10/09), o primeiro autor Jonathan Knee, especialista em investimentos na indústria de mídia, diz que os magnatas da mídia têm sido responsáveis por uma destruição de valores sem precedentes durante um longo período de tempo. “Mesmo numa era de derretimento financeiro e resgates governamentais, os mais de US$200 bilhões em perda de ativos durante essa década por apenas três conglomerados de mídia – Time Warner, Viacom (incluindo sua aquisição da CBS) e News Corp. – ainda chega a tirar a respiração,” acrescenta Knee. E continua: “As vantagens de escala mais frequentemente encontradas na mídia digital tendem a vir dos efeitos em rede ao invés dos requisitos de custo-fixo alto das franquias de mídia tradicionais.” Entre as poucas empresas da nova mídia a construir negócios consolidados estão a Google e a eBay, que criaram redes enormes. Isso também justifica as altas avaliações atribuídas a empresas de mídia social como Facebook e Twitter.

Entre os pontos cegos das lideranças da velha mídia, estaria justamente o valor das redes, segundo Jeff Jarvis, uma espécie de “guru” da nova mídia, em matéria em seu blog BuzzMachine.com provocativamente intitulada “The economy of collaboration” (“A economia da colaboração”, 16/10/09). Aos executivos da velha mídia seria urgente perceber o quanto a economia da colaboração agrega valor, cria eficiência, e opera novas “moedas”. Jarvis acredita que esses executivos ainda não se permitiram abrir os olhos para a nova realidade econômica: os imperativos da chamada “economia do link”, a necessidade e o benefício de se renunciar ao controle, as vantagens de se criar plataformas abertas sobre sistemas fechados, a economia da “pós-escassez” e a arte de se explorar a abundância, a necessidade de ser “buscável” para ser encontrado, a deflação que a inovação traz consigo, o valor do gratuito, e o triunfo do processo sobre o produto.

Em referência à afirmação de Curley, executivo da AP, de que “existe um excesso, pelo menos no curto prazo, de nós”, Jarvis diz que isso somente é verdade quando se pensa que se pode “possuir” notícias e o acesso a elas e portanto a seu preço. Mas na economia da colaboração é diferente: todos esses agentes em excesso agregam valor e eficiência. Jarvis acredita que é assim que a Google nos vê, capturando nossos links e cliques para descobrir o valor daqueles trilhões de páginas, e que foi assim que a Wikipedia e a Craigslist criaram seu valor, lidando com confiança e pertinência como uma nova moeda. E continua: “É assim que desejo que as organizações de notícias de nova-geração olhem para nós, como as pessoas que criarão notícias enquanto que as organizações agregam valor às notícias: avaliando, corrigindo, organizando, promovendo, vendendo. As organizações e seus jornalistas então se tornam tão mais eficientes porque trabalham colaborativamente com o público. É assim que elas se tornam sustentáveis e lucrativas novamente. Mas isso acontece somente se você confia e dá valor aos outros e entende a economia da colaboração.”

Tudo isso faria parte de uma nova era capitaneada por uma instituição que parece verdadeiramente entender e prosperar na era da internet: a Google. Em seu livro recente sobre a gigante da busca, “What Would Google Do” (“O Que A Google Faria”, HarperBusiness, Janeiro 2009), Jarvis relaciona entre as novas regras da nova era o princípio de que permitir que os clientes colaborem com você na criação, distribuição, marketing e no apoio a produtos é o que cria um diferencial no mercado de hoje. “Deter a propriedade de canais, pessoas, produtos, ou mesmo propriedade intelectual não é mais a chave para o sucesso. Abertura o é.”

(Ruy José Guerra Barretto de Queiroz, Professor Associado, Centro de Informática da UFPE )

ÚLTIMA ATUALIZAÇÃO ( SEG, 19 DE OUTUBRO DE 2009 10:04 )