Download - A PRODUÇÃO COLABORATIVA DE CONTEÚDOS:
UNIVERSIDADE FEDERAL DA PARAÍBA
CENTRO DE CIÊNCIAS SOCIAIS APLICADAS
PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA INFORMAÇÃO
SANDRINE CRISTINA DE FIGUEIRÊDO BRAZ
A PRODUÇÃO COLABORATIVA DE CONTEÚDOS:
Elementos Indicadores da Confiabilidade da Informação
na Wikipédia, a Enciclopédia Livre
JOÃO PESSOA-PB
2014
SANDRINE CRISTINA DE FIGUEIRÊDO BRAZ
A PRODUÇÃO COLABORATIVA DE CONTEÚDOS:
Elementos Indicadores da Confiabilidade da Informação
na Wikipédia, a Enciclopédia Livre
Dissertação apresentada ao Programa de
Pós-Graduação em Ciência da Informação
da Universidade Federal da Paraíba como
requisito para a obtenção do grau de Mestra
em Ciência da Informação.
Área de Concentração: Informação,
Conhecimento e Sociedade.
Linha de Pesquisa: Ética, Gestão e Política
de Informação.
Orientador: Prof. Dr. Edivanio Duarte de
Souza.
JOÃO PESSOA-PB
2014
B827p Braz, Sandrine Cristina de Figueirêdo.
A produção colaborativa de conteúdos: elementos indicadores da confiabilidade da informação na Wikipédia, a Enciclopédia Livre / Sandrine Cristina de Figueirêdo Braz.-- João Pessoa, 2014.
119f.
Orientador: Edivanio Duarte de Souza
Dissertação (Mestrado) - UFPB/CCSA
1. Ciência da informação. 2. Confiabilidade da informação. 3. Fontes de informação. 4. Produção colaborativa. 5.Produção de conteúdos.
UFPB/BC CDU: 02(043)
UFPB/BC CDU: 02(043)
SANDRINE CRISTINA DE FIGUEIRÊDO BRAZ
A PRODUÇÃO COLABORATIVA DE CONTEÚDOS:
Elementos Indicadores da Confiabilidade da Informação
na Wikipédia, a Enciclopédia Livre
Dissertação apresentada ao Programa de Pós-Graduação em Ciência da Informação da
Universidade Federal da Paraíba como requisito para obtenção do título de Mestra, em
______/ ______/ __________.
BANCA DE DEFESA
______________________________________________________
Prof. Dr. Edivanio Duarte de Souza – ICHCA/UFAL (Orientador)
______________________________________________________
Profa. Dra. Joana Coeli Ribeiro Garcia – DCI/UFPB
______________________________________________________
Prof. Dr. Marcello Peixoto Bax – ECI/UFMG
______________________________________________________
Prof. Dr. Gustavo H. de Araújo Freire – DCI/UFPB (Suplente)
______________________________________________________
Profa. Dra. Francisca Rosaline Leite Mota – ICHCA/UFAL (Suplente)
À minha família, por ter semeado em mim o
quão incessante e importante deve ser a busca
pelo conhecimento,
Dedico.
AGRADECIMENTOS
A DEUS, “luz que me ilumina o caminho e que ajuda a seguir”, por segurar a minha
mão e me amparar em seu colo nos momentos mais difíceis desse percurso.
À minha família, um pedacinho de DEUS aqui na Terra, que depositou toda confiança
e incentivo em mim, através de palavras e ações. Família, fonte de amor, carinho, respeito e
compreensão. Eles, que sonharam junto comigo, hoje podem comemorar.
Aos amigos e amigas, pelo apoio e confiança demonstrada ao longo dos anos.
À professora Ma. Bríggida Lourenço (in memorian), por incentivar meu ingresso no
Mestrado ainda na fase da seleção.
Ao meu orientador, professor Dr. Edivanio Duarte de Souza, pelas orientações, pela
tranquilidade e pelo apoio demonstrado durante todo o Mestrado.
À banca examinadora pelas contribuições dadas a esta pesquisa.
Ao Programa de Pós-Graduação em Ciência da Informação da Universidade Federal
da Paraíba (PPGCI/UFPB) pela oportunidade de aprender cada vez mais e mais.
À Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), pela
concessão de bolsa.
Aos colegas da turma de Mestrado pelos saberes divididos e multiplicados durante o
curso e, especialmente, a Brenda Andrade pela amizade, pelo carinho e pelo companheirismo
durante todo o curso.
Aos professores que tive, por terem contribuído com a minha formação intelectual.
A todos que puderam contribuir de alguma maneira com o meu crescimento pessoal e
profissional, muito obrigada!
RESUMO
Os últimos anos vêm sendo marcados pela grande quantidade de informações produzidas,
disseminadas e consumidas diariamente. O advento da web e sua evolução tecnológica, em
particular, proporcionaram a emergência de mecanismos voltados à interação social, por meio
de redes online, comunidades virtuais e espaços abertos de interação. Esses ambientes são
dedicados à produção, à troca, à disseminação e ao compartilhamento de informações e bens
imateriais inteiramente focados nos processos de produção colaborativa. Nesse cenário, a
Wikipédia, a Enciclopédia Livre, apresenta-se como um dos endereços mais acessados da
Internet. No decorrer de seus 12 anos de existência, a enciclopédia online colaborativa opera
em mais 280 países, estando presente nos cinco continentes mundiais, a saber, África,
América, Ásia, Europa e Oceania. O seu maior diferencial consiste no fato desta funcionar por
intermédio de interações e colaborações realizadas pelos próprios usuários. Em contrapartida,
em função de seu caráter livre, a Wikipédia enfrenta cotidianamente o desafio da
confiabilidade das informações. Assim, na presente pesquisa, objetivamos analisar os
elementos que indicam a confiabilidade das informações produzidas e compartilhadas na
Wikipédia, a Enciclopédia Livre. Para tanto, buscamos, especificamente, descrever a estrutura
dessa enciclopédia, mapeando suas características gerais e específicas, identificar os
elementos encontrados como constitutivos de uma política de produção e disseminação da
informação, caracterizar os elementos que condicionam a confiabilidade das informações
produzidas, e explicitar as diretrizes que norteiam a produção colaborativa de conteúdos.
Nesse sentido, realizamos uma pesquisa qualitativa de base documental na forma de estudo de
caso. A coleta e a análise de dados foram realizadas com fundamento na Análise de Conteúdo
de Laurence Bardin (2010), por intermédio da combinação das técnicas de Análise das
Relações e Análise Temática propostas por Minayo (1996). Os resultados evidenciam que a
Wikipédia é composta por um conjunto de elementos que visam a assegurar suas
características mais particulares, tais como os Cinco Pilares e a O que a Wikipédia não é.
Além disso, ela dispõe de políticas e recomendações que fundamentam a produção de
conteúdos. A Wikipédia se preocupa com os conteúdos produzidos pelos seus editores,
especialmente no que se refere à qualidade, com destaque para a validade e a confiabilidade
das informações que os constituem. Nesse contexto, três aspectos se destacam. O primeiro
corresponde às categorias de Produção de Conteúdos, que se constituem dos apontamentos
mais importantes a serem conhecidos e adotados pelos colaboradores. O segundo, que visa a
alcançar a confiabilidade, corresponde aos “cargos” de confiança, valorizando tanto a
qualidade dos artigos e verbetes produzidos pelos wikipedistas quanto a experiência dos
membros dedicados à melhoria dos artigos e verbetes. O terceiro refere-se à “netiqueta”, que
age de forma indireta no tocante à confiabilidade, informando os comportamentos mais
adequados para que os conflitos pessoais internos não atinjam a qualidade das páginas. O
modelo aberto e colaborativo da enciclopédia, portanto, faz com que a Wikipédia tenha uma
preocupação constante com a produção de conteúdos fiáveis e credíveis. As especificidades
possibilitam que ela agregue os elementos de confiabilidade das informações de fontes
informacionais distintas. O desafio maior se encontra na constante busca por novos critérios
para avaliar a qualidade desses conteúdos.
Palavras-chave: Confiabilidade da Informação. Fontes de Informação. Produção
Colaborativa. Produção de Conteúdos. Wikipédia, a Enciclopédia Livre.
ABSTRACT
The last few years have been marked by the large amount of information produced,
disseminated and consumed daily. The advent of the web and its technological evolution, in
particular, resulted in the emergence of mechanisms aimed at social interaction through online
networks, virtual communities and open spaces of interaction. These environments are
dedicated to the production, exchange, and dissemination of information and intangible assets
fully focused on the processes of collaborative production sharing. In this context, Wikipedia,
the Free Encyclopedia, presents itself as one of the most accessed Internet addresses.
Throughout its 12years of existence, the collaborative encyclopedia online operates in over
280 countries, being present in five 5 continents, namely Africa, America, Asia, Europe and
Oceania. Its major advantage is the fact that it functions through interactions and
collaborations done by its own users. However, due to its free nature, Wikipedia faces the
daily challenge of the reliability of information. Thus, in the present research, we aimed to
analyze the factors affecting the reliability of information produced and shared on Wikipedia,
The Free Encyclopedia. To this end, we seek to specifically describe the structure of this
encyclopedia, mapping its general and specific characteristics, to identify the elements found
as constituting a policy of production and dissemination of information, to characterize the
factors affecting the reliability of information produced, and to explain the guidelines that
guide the collaborative production of content. Thus, we performed a qualitative research on a
documentary base in a case study. The collection and analysis of data were performed on the
basis of Content Analysis of Laurence Bardin (2010), through the combination of the
techniques of Relations Analysis and Thematic analysis proposed by Minayo (1996). The
results show that Wikipedia is composed of a set of features designed to ensure their most
unique characteristics, such as the Five Pillars and Wikipedia is not. Moreover, it has policies
and recommendations that support the content production. Wikipedia is concerned with
content produced by its publishers, especially regarding to quality, with emphasis on the
validity and reliability of information that constitute them. In this context, three aspects stand
out. The first corresponds to the categories of Content Production, which constitute the most
important notes to be known and adopted by its producers. The second aims to achieve
reliability, it corresponds to the "positions of trust”, enhancing both the quality of articles and
entries produced by Wikipedians as the experience of members dedicated to improving
articles and entries. The third refers to the "netiquette", which acts indirectly on reliability
regards, informing the most appropriate behaviors so that internal personal conflicts do not
reach the quality of the pages. The open and collaborative model of encyclopedia therefore
brings to Wikipedia a constant concern with the production of reliable and credible content.
Its specifics enable itself to add the elements of reliability of information from different
informational sources. The biggest challenge is the constant search for new criteria to evaluate
the quality of such content.
Keywords: Reliability of information. Sources of Information. Collaborative production.
Content Production. Wikipedia, the Free Encyclopedia.
LISTA DE QUADROS
Quadro 1 – Gerações da Web .......................................................................................... 25
Quadro 2 – Critérios de Avaliação da Confiabilidade de Fontes de Informação da Web
.......................................................................................................... 65
Quadro 3 – Políticas e Recomendações da Wikipédia .................................................... 84
LISTA DE ABREVIATURAS E SIGLAS
ABNT – Associação Brasileira de Normas Técnicas
AC – Análise de Conteúdo
AR – Análise das Relações
AT – Análise Temática
BDJur – Biblioteca Digital do Superior Tribunal de Justiça
CDD – Classificação Decimal de Dewey
CDU – Classificação Decimal Universal
CISL – Comitê de Implementação do Software Livre
CSM - Content Management System
DF – Distrito Federal
FOAF – Friend of a Friend
FSF – Free Software Foundation
GFDL – GNU Free Documentation License
GNU – GNU is Not Unix
HTML – HyperText Markup Language
IFPB – Instituto Federal da Paraíba
IIB – Instituto Internacional de Bibliografia
IP – Internet Protocol
MCT – Ministério da Ciência e Tecnologia
MEC – Ministério da Educação
MIT – Massachusetts Institute of Technology
ODLIS – Online Dictionary of Library and Information Science
PBID – Programa Brasileiro de Inclusão Digital
PDF – Portable Document Format
PHP – Hipertext Preprocessor
PPL – Peer Production Leve
PPP – Peer Production Pesado
RDF – Resource Description Framework
SAMBA – Server Message Block
UFAC – Universidade Federal do Acre
UFCG – Universidade Federal de Campina Grande
UFRJ – Universidade Federal do Rio de Janeiro
UNESP – Universidade Estadual Paulista Júlio de Mesquita Filho
UNIRIO – Universidade Federal do Estado do Rio de Janeiro
URSS – União das Repúblicas Socialistas Soviéticas
USP – Universidade de São Paulo
SUMÁRIO
1 INTRODUÇÃO ........................................................................................................ 12
2 FUNDAMENTOS DA COLABORAÇÃO NO CIBERESPAÇO: DA
PRODUÇÃO AO COMPARTILHAMENTO DE INFORMAÇÕES ................. 18
2.1 Os Primeiros Passos da Web e a sua Evolução Interativa .................................... 18
2.2 A Consolidação do Ciberespaço na Comunicação da Informação Digital ......... 27
2.3 A Linguagem Hipertextual no Ciberespaço ........................................................... 30
2.4 Inteligência Coletiva: Rumo ao Espaço do Saber ................................................. 32
3 PRODUÇÃO COLABORATIVA DE CONTEÚDOS NO
CIBERESPAÇO........................................................................................................
37
3.1 Trabalho Imaterial: a Essência da Produção Colaborativa ................................. 39
3.2 Modelos de Colaboração .......................................................................................... 41
3.3 Política de Informação para Produção de Conteúdos no Ciberespaço .............. 43
3.4 O Copyleft e o Software Livre na Web Interativa ................................................. 46
3.4.1 Creative Commons: Licenças Criativas para o Copyleft............................................ 51
4 OS SISTEMAS WIKIS: CARACTERÍSTICAS E PRESSUPOSTOS ................ 55
4.1 Wikipédia, a Enciclopédia Livre ............................................................................ 57
5 A CONFIABILIDADE DA INFORMAÇÃO NO CIBERESPAÇO:
CRITÉRIOS E DESAFIOS ..................................................................................... 63
5.1 Sistemas de Reputação: um Caminho para a Confiabilidade .............................. 68
5.1.1 Modelos de Sistemas de Reputação ........................................................................ 70
5.1.2 Sistemas de Reputação em Comunidades Virtuais Acadêmicas: O Caso da Activ
UFRJ ......................................................................................................................... 73
6 O DESENHO DA PESQUISA: DEFINIÇÕES, PERCURSOS E
PROCEDIMENTOS METODOLÓGICOS .......................................................... 75
6.1 Caracterização da Pesquisa ..................................................................................... 75
6.2 Abordagem Qualitativa ........................................................................................... 76
6.3 Métodos e Técnicas de Coleta e Análise de Dados ................................................ 77
7 A CONFIABILIDADE DA INFORMAÇÃO NA WIKIPÉDIA, A
ENCICLOPÉDIA LIVRE: POLÍTICAS E RECOMENDAÇÕES NA
PRODUÇÃO DE CONTEÚDOS ............................................................................
80
7.1 Princípios de Confiabilidade dos Conteúdos da Wikipédia.................................. 85
7.2 Itens de Confiabilidade das Páginas ....................................................................... 88
7.3 Políticas de Produção Colaborativa de Conteúdo na Wikipédia ......................... 89
7.4 O Reconhecimento do Trabalho Colaborativo: a “Equipe” de Confiança ......... 94
7.5 Wikiquette: A “Netiqueta” da Wikipédia .............................................................. 101
8 CONSIDERAÇÕES FINAIS .................................................................................. 104
REFERÊNCIAS ....................................................................................................... 110
1 INTRODUÇÃO
Nos últimos anos, vimos que o fenômeno da comunicação digital planetária mediado
pelas tecnologias de informação e comunicação têm se destacado, principalmente, nos
domínios da produção de conteúdos e de informação. Logo em seus primeiros anos de
expansão, a web possibilitou que os usuários passassem a ter acesso a grandes estoques de
informação através dos conteúdos, tanto em escala local quanto global. Entretanto, foi a partir
do surgimento da web social ou web 2.0, como ficou mais conhecida, que as mudanças mais
significativas começaram a aparecer.
Enquanto a web 1.0 tinha como propósito principal apenas o acesso às informações, a
web 2.0 traz uma proposta voltada ao social, à interatividade entre os usuários, à produção de
conteúdo, ao trabalho imaterial e à cultura colaborativa. Nesse aspecto, redes sociais online,
comunidades virtuais e softwares livres merecem destaque por fortalecerem ainda mais os
pilares do ciberespaço apontados por Lévy (1999), a saber, a interconexão, as comunidades
virtuais e a inteligência coletiva.
Os espaços voltados à interação ampliam as possibilidades de acesso, produção, uso e
disseminação das informações, em um fluxo contínuo e dinâmico realizado por todo e
qualquer usuário. Essa atividade acaba ocasionando um rompimento com as antigas formas de
produção de conteúdos, anteriormente realizada por um grupo seleto de profissionais
especializados. O processo de produção colaborativa passa a se consolidar como uma prática
recorrente no ciberespaço. Autores como Miranda et al (2000), Carpes (2011) e Schons
(2008) identificam na interatividade e na produção colaborativa uma prática bastante positiva
por engajar um grupo voluntário de pessoas na construção coletiva de conteúdo e obras
criativas no ciberespaço, otimizando as competências individuais e os saberes de cada
usuário. Assim, a inteligência coletiva se constitui como principal fundamento da produção
colaborativa.
Com efeito, a inteligência coletiva tem como essência a valorização dos saberes de
todos os indivíduos, entendendo que estes saberes se encontram espalhados por todas as
partes e, por isso, devem ser valorizados incessantemente (LÉVY, 1998). Para ela, todos os
indivíduos sabem algo importante e de valor que merece ser compartilhado com seus pares a
fim de que todos tenham o conhecimento desses conteúdos e possam tirar proveito das
informações que eles possuem.
O fato é que, se, por um lado, as formas de produção colaborativa permitem a
produção, a disseminação, o acesso e o uso de informações em escala mundial, aumentando, a
um só tempo, os estoques de informação e sua disponibilização junto aos usuários, por outro,
esse tipo de produção de conteúdos está provocando o debate em torno da validade e da
confiabilidade das informações que surgem nesse modelo de produção.
As discussões começam a ganhar vigor a partir do momento em que a dinâmica do
ciberespaço coloca, muitas vezes, em um mesmo domínio e, até mesmo, em nível de
igualdade, as produções realizadas por pessoas que possuem algum tipo de conhecimento
especializado e aquelas pessoas consideradas “comuns”, que indispõem de algum tipo de
saber específico. Em tese, especialistas e amadores dividem os espaços de produção de
conteúdo e de informações na rede mundial de computadores.
Na produção colaborativa de conteúdos, o surgimento de informações imprecisas,
incoerentes ou até mesmo falsas corresponde a um perigo iminente, uma vez que todos podem
contribuir com o produto e fazer uso deste. A disseminação desse tipo de informação pode
gerar concepções cada vez mais equivocadas, ocasionando prejuízos e danos incalculáveis e,
por vezes, irreparáveis às pessoas que dela fizerem uso. Nesse âmbito, emergem alguns
questionamentos sobre a confiabilidade das informações que compõem os conteúdos
produzidos colaborativamente.
Atualmente, a literatura acerca dessa temática se mostra incipiente e irrisória, o que
comprova a pouca discussão em torno da confiabilidade das fontes de informação da web.
Nesse sentido, a Ciência da Informação precisa intensificar os debates e as abordagens, de
forma a aumentar a literatura e construir um arcabouço teórico mais consistente. Em que pese
essa constatação, podemos observar que a ampliação das fontes de informações localizadas no
ciberespaço começa a provocar uma mudança no paradigma da confiabilidade das
informações.
Nessa perspectiva, Christofoletti e Laux (2008) esclarecem que os conteúdos
tradicionalmente produzidos e disseminados por uma equipe de profissionais gabaritados
seguem os princípios éticos e normativos inerentes à sua prática profissional. Essa atividade
capacitada gera credibilidade dos conteúdos veiculados nos diversos meios de comunicação,
resultando, por conseguinte, na confiabilidade das informações disseminadas. Todo esse
tratamento profissional dado ao processo de produção da informação não ocorre, em muitos
casos, nos domínios da rede mundial de computadores. Contudo, alguns estudos
internacionais constatam o aumento expressivo da confiabilidade de fontes de informação que
são produzidas colaborativamente no ciberespaço e, em contrapartida, verificam a perda de
credibilidade de fontes de informação offline, especialmente nos meios de comunicação de
massa.
Em meio a essas questões, temos a Wikipédia, a Enciclopédia Livre, uma das fontes de
informação mais visitadas na web. Segundo Keen (2009), a Wikipédia ocupou o décimo
sétimo lugar no ranking dos endereços da web mais visitados do mundo no ano de 2007. No
auge da sua primeira década, essa enciclopédia angariou o título de quinto site mais visitado
no mundo, com aproximadamente 210 milhões de visitantes por mês. De acordo com Oona
Castro, Diretora da Wikipédia no Brasil, em 2012 essa fonte ocupou o décimo lugar no
ranking dos sites mais visitados do mundo e o sexto mais acessado no Brasil (DIRETORA...,
2012). Góes (2013) publicou uma reportagem no portal Tech Tudo, em fevereiro de 2013,
divulgando a pesquisa da ComScore, que elencava os sites mais acessados do corrente ano até
os dois primeiros meses do ano. Nela, a Enciclopédia Livre aparece em quinto lugar,
perdendo apenas para Facebook, Google, YouTube e Yahoo!. Esses dados nos mostram o
quanto a Wikipédia é considerada como uma fonte de informação válida para os usuários do
ciberespaço.
A Wikipédia, a Enciclopédia Livre surgiu no ano de 2001 com a proposta inicial de
construir uma enciclopédia online, cujo conteúdo seria capaz de abarcar as mais diversas
áreas do conhecimento humano. Desta feita, ela emergiu como uma enciclopédia
multidisciplinar construída como variação da Nupédia, uma enciclopédia que tinha como
objetivo ser escrita apenas por especialistas renomados, com grande rigidez em seus critérios
de avaliação. Diferentemente daquela, esta teve o êxito diminuído e, em 2003, deixou de
existir. Criada pela Wikimedia Foundation, uma organização sem fins lucrativos, a Wikipédia
permite que seu conteúdo seja elaborado pelos próprios usuários de forma coletiva e
inteiramente gratuita.
Diante das discussões que envolvem a questão da confiabilidade das fontes de
informação da web e da relevância dessa fonte de informação, indagamos: que elementos
indicam a confiabilidade das informações produzidas e compartilhadas na Wikipédia, a
Enciclopédia Livre?
Na presente pesquisa, objetivamos analisar os elementos que indicam a confiabilidade
das informações produzidas e compartilhadas na Wikipédia, a Enciclopédia Livre. Para tanto,
buscamos, especificamente:
descrever a estrutura da Wikipédia, mapeando suas características gerais e
específicas;
identificar os elementos encontrados como constitutivos de uma política de
produção e disseminação da informação;
caracterizar os elementos que condicionam a confiabilidade das informações
produzidas; e
explicitar as diretrizes que norteiam a produção colaborativa de conteúdos na
Wikipédia.
Tomando como referência esses objetivos, estabelecemos os fundamentos teórico-
metodológicos que serviram de suporte para a execução da pesquisa, notadamente, no que se
refere à coleta, à análise e às discussões dos resultados. Logo, no próximo capítulo,
Fundamentos da Colaboração no Ciberespaço: da produção ao compartilhamento de
informações, discutimos os aspectos que possibilitam o acesso, a produção e o
compartilhamento dos conteúdos e das informações no ciberespaço, descrevendo suas
características mais sobressalentes e suas implicações na vida em sociedade. Para
compreender tais fatos, é imprescindível possuir os conhecimentos que envolvem a
comunicação mediada por computador, com ênfase na interação, na linguagem hipertextual e
na inteligência coletiva. A abordagem dessas noções realçam os elementos que apontam os
ditames da produção colaborativa no meio digital.
Na sequência, no capítulo intitulado de Produção Colaborativa de Conteúdos no
Ciberespaço, adentramos com mais profundidade na produção de conteúdos e informações
que ocorrem na esfera do ciberespaço, apresentando e discutindo a existência dos modelos de
colaboração: o modelo leve, o pesado e o híbrido, que estão relacionados ao empenho dos
colaboradores na manutenção do projeto. Nesse capítulo, observamos que o trabalho imaterial
é o maior responsável pelos projetos colaborativos existentes no ciberespaço, como a
Wikipédia. No âmbito das políticas de informação, vemos que o debate em torno da produção
de conteúdos e informações ainda é insuficiente. Ainda no terceiro capítulo, expomos os
pressupostos do copyleft, do software livre e das licenças Creative Commons, como forma de
embasar e caracterizar o objeto de estudo.
Após esse entendimento, ingressamos no capítulo Sistemas Wikis: características e
pressupostos, tecendo considerações a respeito do software livre que serve de suporte para o
funcionamento da Wikipédia. Com isso, ressaltamos que essa plataforma tecnológica
possibilita também que essa fonte de informação seja um espaço de colaboração entre editores
anônimos e registrados.
O debate em torno da confiabilidade propriamente dito acontece no quinto capítulo, A
Confiabilidade da Informação no Ciberespaço: critérios e desafios. No espaço dedicado a
essa discussão, trazemos autores que ponderam sobre essa temática e que apresentam critérios
que possibilitam qualificar uma dada fonte de informação como confiável. Como destaque,
trazemos as ponderações ressaltadas por Serra (2006), Fogg et al (2002a, 2002b) e Tomáel et
al (2001). A partir das afirmativas elencadas por esses autores, observamos mais nitidamente
que a designação de uma fonte de informação como confiável e, consequentemente, credível,
é bastante heterogênea e diversificada, estando também associada ao tipo de fonte de
informação. Além dos pareceres citados, temos Lopes (2006), Cruz e Motta (2006) e Lima
(2010) mencionando os sistemas de reputação como mais uma possibilidade de chegarmos à
confiabilidade.
No sexto capítulo, O Desenho da Pesquisa: definições, percursos e procedimentos
metodológicos, apresentamos os procedimentos utilizados durante a realização desta pesquisa,
considerando os objetivos propostos e o escopo do objeto investigado. Pelo fato de a
Wikipédia ocupar um lugar na realidade, a referida investigação se caracteriza como empírica,
pois depende tanto dos dados empíricos quanto da realidade para a realização das análises
(DEMO, 1994). A abordagem utilizada dispensou a utilização de dados numéricos e
estatísticos, apresentando-se, conforme Richardson (2008), como uma investigação
qualitativa. Essa abordagem qualitativa mantém uma preocupação com o resultado/produto,
com o processo e com o significado que o objeto de estudo apresenta.
Utilizamos a técnica aplicada da Análise de Conteúdo (AC) de Bardin (2010), que
incidiu diretamente nas políticas e recomendações da Wikipédia, na medida em que essas se
constituíram na base empírica mais relevante dessa fonte de informação colaborativa. Nos
procedimentos da AC, seguimos, conforme Minayo (1996), as segmentações em Análise
Temática e Análise das Relações. A primeira possibilitou a identificação de indicadores
reincidentes e que contribuem sobremaneira para a confiabilidade dessa enciclopédia
colaborativa, como por exemplo, Itens de Confiabilidade, a “Equipe” de Confiança, a
“Netiqueta” e a Política de Produção de Conteúdos. A segunda, por sua vez, possibilitou, a
partir da análise de co-ocorrência, o entendimento de que existe relação entre os Princípios de
Confiabilidade e os artigos e verbetes produzidos
No sétimo capítulo, A Confiabilidade da Informação na Wikipédia, a Enciclopédia
Livre: políticas e recomendações na produção de conteúdos, abordamos a dinâmica de
funcionamento dessa enciclopédia, destacando seus aspectos gerais e específicos. Em seguida,
analisamos e discutimos as políticas e as recomendações existentes na Wikipédia, com
destaque para aquelas que mantêm relações diretas e indiretas com a questão da
confiabilidade. Nesse quesito, a Wikipédia possui Princípios de Confiabilidade, a saber,
Imparcialidade, Neutralidade, Nada de Pesquisa Inédita, Fontes Primárias, Notoriedade e
Direitos Autorais. Outros fatores também aparecem como indicadores de credibilidade, tais
como Acessibilidade, Datas e Ortografia.
Preocupada com o nível de qualidade das páginas, a Wikipédia também possui sua
própria política de informação, que descreve os critérios para a sua produção de conteúdos,
como a Política de Edição, a Política de Eliminação, a Política de Bloqueio e a de Proibição
de Proxies Anônimos.
Essa fonte de informação dispõe também de uma “Equipe” de Confiança, composta
por admistradores, reversores, burocratas, autorrevisores e eliminadores. Esses usuários são
responsáveis pela averiguação, checagem e exclusão das páginas com baixo nível de
qualidade ou que infrinjam os critérios de produção designados pela comunidade de
colaboradores.
O último indicador de confiabilidade é a Wikiquette, a “Netiqueta” da Wikipédia, que
tem como finalidade inibir as divergências de opiniões e os conflitos de ideias entre editores
que possam prejudicar a qualidade dos conteúdos produzidos.
Finalmente, apresentamos as Considerações Finais, que nos permitiram concluir que a
Wikipédia dispõe de políticas e recomendações que objetivam estabelecer os critérios a serem
adotados na produção de conteúdos e informações em seus artigos e verbetes. Os
apontamentos trazidos constatam que a enciclopédia colaborativa em estudo possui uma série
de elementos indicadores de confiabilidade, que visam a proporcionar mais qualidade aos
conteúdos produzidos colaborativamente.
A partir do que foi abordado e discutido, concluímos que a Wikipédia possui uma série
de indicadores de confiabilidade bastante providenciais para a sua permanência e sucesso no
ciberespaço, principalmente por ter a capacidade de aumentar tais indicadores ao integrar
elementos de fontes de informação impressas aos do ciberespaço.
2 FUNDAMENTOS DA COLABORAÇÃO NO CIBERESPAÇO: DA PRODUÇÃO AO
COMPARTILHAMENTO DE INFORMAÇÃO
A história narra fatos que demonstram o quanto a tecnologia tem desempenhado um
lugar de destaque na vida em sociedade. Trazendo essa abordagem para os últimos dois
séculos, XX e XXI, observamos que as tecnologias de informação e comunicação têm tido um
espaço importante, pois acabaram condicionando o exercício das diversas atividades na esfera
pessoal e profissional. Ter acesso a essas tecnologias e às informações a elas correlacionadas,
em especial à Internet, é uma questão de fundamental relevância.
A emergência da web possibilitou que a produção de informações fosse
redimensionada a uma grande quantidade de pessoas simultaneamente, em espaços territoriais
igualmente distintos. Inicialmente, era garantido apenas o acesso aos endereços eletrônicos
das páginas, mas, com a rápida evolução tecnológica, em alguns anos, essa realidade foi
transformada, possibilitando o acesso, a produção e o compartilhamento de conteúdos e
informações pelos próprios usuários de modo colaborativo e integrado. Até que se chegasse a
essa realidade, a trajetória da web foi marcada por sucessivos avanços tecnológicos, com
ênfase nas demandas interativas. Por isso, é preciso conhecer as mudanças que as tecnologias
de informação e comunicação vêm promovendo, sobretudo, em novos delineamentos da
esfera social.
2.1 Os Primeiros Passos da Web e a sua Evolução Interativa
Cronologicamente, o surgimento da Internet está atrelado à busca pela vitória durante
a Guerra Fria. Almejando se sobressair em relação ao seu oponente, a então União das
Repúblicas Socialistas Soviéticas (URSS), os Estados Unidos passaram a fazer uso da
Internet internamente com o intuito de melhorar e aprimorar suas estratégias armamentistas
frente aos seus adversários soviéticos. Sem maiores utilidades com a cessão da guerra, os
norte-americanos passaram a redirecioná-la para fins educativos nas instituições de ensino
superior americanas.
Ao cativar um lugar específico dentro da academia, a Internet logo deu seus primeiros
avanços, começando pela sua disseminação por várias outras universidades mundo afora.
Com a criação da Word Wide Web, a troca de informação, que se dava exclusivamente por
dados textuais, passou a ser incrementada pela linguagem audiovisual, mediante o uso de sons
e imagens simultaneamente. O principal motivo que levou à abrangência dessa linguagem foi
a possibilidade de promover o intercâmbio e a facilidade na comunicação entre as mais
diversas áreas do conhecimento.
A web foi evoluindo gradativamente no decorrer dos anos. Logo em sua primeira
geração, a versão 1.0, conquistou muitos usuários, sobretudo, devido à expressiva quantidade
de informações que disponibilizava aos seus internautas. Entretanto, o papel do usuário se
restringia somente ao acesso e à leitura dos conteúdos que transitavam na rede. Os usuários
eram considerados, conforme Coutinho e Bottentuit Junior (2007), meros espectadores,
devido à passividade e falta de interação com as informações, sendo incapazes de inserir,
editar ou reeditar o conteúdo dos endereços existentes.
A primeira geração tinha um custo bastante elevado por centralizar toda a produção de
conteúdo informacional nas mãos dos detentores das páginas e sites, acarretando uma alta
despesa para a atualização do conteúdo e dos softwares usados, pagos e controlados através
das licenças privadas do copyrigth. Foi também na web 1.0 que o comércio eletrônico surgiu e
se expandiu rapidamente, abrindo espaços para a criação de novas vagas no mercado de
trabalho, multiplicando e gerando renda fixa tanto para os empresários quanto para os
trabalhadores.
Inegavelmente, a primeira versão da web trouxe avanços importantes no que se
relaciona ao acesso à informação e ao conhecimento, principalmente, pela possibilidade de
alcance global. Entretanto, Coutinho e Bottentuit Junior (2007) observam que nessa geração
havia um “impasse filosófico” entre a concepção de rede global e espaço aberto com a relação
de detenção do poder que se encontrava sob a posse dos donos das páginas, que controlavam,
de certa forma, a informação a ser transmitida e acessada aos seus usuários. Surge aí a
necessidade de tornar a web mais acessível e democrática do ponto de vista da interação e da
participação dos internautas. Todo esse problema foi resolvido com o advento da segunda
geração da web.
A web 2.0, cuja denominação foi cunhada por Tim O’Reilly, também conhecida como
web social ou web interativa, surgiu no ano 2004. Essa nova versão trouxe, de fato, uma
proposta focada em uma rede global de colaboração e compartilhamento de informação e
conhecimento. O caráter interativo e participativo frente aos usuários é um dos maiores
diferenciais dessa geração. De acordo com Pinheiro (2009, p. 3), ela traz “uma nova atitude,
uma nova forma de as pessoas se relacionarem com e na Internet: a rede deixa de ligar apenas
máquinas, [e] passa a unir pessoas, [em] um processo com implicações sociais profundas”.
Diferentemente da primeira geração, a versão 2.0 possibilita que os usuários mantenham
interações sociais entre si através dos espaços abertos existentes na rede mundial de
computadores. Mediante essas considerações, a web interativa se consagra como um novo
ambiente social acessível a todos aqueles que estejam devidamente conectados, no qual os
internautas decidem conjuntamente o que deve ser discutido e socializado, através das
interações que mantêm.
Coutinho e Bottentuit Junior (2007) entendem que a web 2.0 possui características
muito particulares, como facilidade de manuseio das interfaces, atualização constante dos
conteúdos disponibilizados por meio da colaboração entre os usuários, facilidade no
armazenamento de dados e na criação de páginas online, e o sucesso da ferramenta depende
da quantidade de usuários que contribuem para melhorar a qualidade do sistema. Os autores
segmentam as ferramentas da web social em duas classes. Na primeira, encontram-se as
aplicações que só existem na Internet, cujo desenvolvimento está associado ao uso e à
participação dos usuários, como a Wikipédia, YouTube, Skype, Hi5, etc. Na segunda,
encontram-se as aplicações que têm como possibilidade o funcionamento offline, mas que o
uso online pode trazer mudanças positivas, como é o caso do Picasa Fotos, iTunes, Google
Maps, etc. Algumas ferramentas interativas que surgiram nessa fase se popularizaram e
ganharam muitos adeptos como as redes sociais (Orkut, Facebook, Hi5, Blogs), ferramentas
de escrita colaborativa (Blogs, Sistemas Wikis, Podcast), ferramentas de comunicação online
(Skype, Messenger, Googletalk) e as ferramentas de acesso a vídeos (YouTube, Google
Vídeos, Yahoo Vídeos).
A interatividade é o ponto chave da web 2.0. De acordo com Lemos (2007) e Primo
(2008), ela é a extensão em que o usuário pode intervir na forma e no conteúdo a que pretende
ser informado. Barreto (1997, p. 4, grifo do autor) tem uma visão mais completa do que se
deve entender por interatividade. Para ele,
a interatividade representa a possibilidade de acesso em tempo real pelo usuário a
diferentes estoques de informação; a múltiplas formas de interação entre o usuário e
às estruturas de informação contidas nesses estoques. A interatividade modifica a
relação usuário-tempo-informação. A interatividade reposiciona os acervos de
informação, o acesso à informação e a sua distribuição, e o próprio documento de
informação ao liberar o receptor dos diversos intermediários que executavam estas
funções em linha e em tempo linear passando em um acesso on line e com
linguagens interativas.
Para que essa interação possa ocorrer é necessária a reciprocidade entre os
interagentes, isto é, a interação “pressupõe [...] intercâmbio e mútua influência do emissor e
receptor na produção das mensagens transmitidas. Isso quer dizer que as mensagens se
produzem em uma região intersticial em que emissor e receptor trocam continuamente de
papéis” (SANTAELLA, 2004, p. 160). Portanto, a interação requer a participação contínua
entre os envolvidos no processo de transmissão e produção da informação em um espaço em
que as partes envolvidas invertem seu papel constantemente. Logo, no processo de troca e
intercâmbio informacional, temos interagentes ou, nas palavras de Branco (2005),
interlocutores, haja vista que a concepção emissor-receptor insatisfaz esse novo paradigma,
pois ambos os envolvidos recebem e emitem informações continuamente durante todo o
processo.
No que se relaciona à interação e à produção de conteúdo, Miranda et al (2000, p. 81)
exaltam as potencialidades da Internet:
Uma das contribuições mais extraordinárias da internet é permitir que qualquer
usuário, em caráter individual ou institucional, [possa] vir a ser produtor,
intermediário e usuário de conteúdos. E o alcance dos conteúdos é universal,
resguardadas as barreiras lingüísticas e tecnológicas do processo de difusão. É por
meio da operação de redes de conteúdos de forma generalizada que a sociedade atual
vai mover-se para a Sociedade da Informação.
Na interação mediada por computador, Primo (2008) esclarece que a interação do
usuário ocorre em dois níveis: reativo e mútuo. A interação reativa é aquela que se dá entre o
usuário e o sistema informático (infraestrutura tecnológica). Ela tem como característica os
sistemas fechados porque o usuário seleciona uma determinada função do sistema, que, por
sua vez, tem o comando da atividade pré-definida pelos programadores. O usuário pode
selecionar a mesma atividade que receberá sempre a mesma resposta, como ocorre nos jogos
virtuais e nos videogames. A interação mútua é completamente oposta à interação reativa. Os
sistemas abertos, como as redes sociais, permitem a troca de conteúdo e informação entre os
usuários, gerando dinamicidade e maior desenvolvimento durante a realização das diversas
atividades. Os indivíduos mantêm uma relação de reciprocidade e interdependência. Havendo
qualquer modificação entre um deles, por menor que seja, acarretará modificações em todo o
processo de interação.
Na interação mediada por computador, existe ainda o que Primo (2008) chama de
multi-interação. Trata-se de uma interação que abarca os dois tipos anteriores de interação em
um mesmo momento, como, por exemplo, a conversa em um chat, na qual o internauta
mantém relações interativas com a infraestrutura tecnológica (hardwares e softwares) e com o
usuário que se encontra online do outro lado do monitor trocando informações com ele.
Seguindo essa linha de espaços dedicados à interatividade, temos as redes sociais
online e as comunidades virtuais como os maiores espaços abertos de interação, dedicados à
troca e ao compartilhamento das informações. Para Carpes (2011, p.199-200),
redes sociais representam na sociedade contemporânea a interatividade entre os
indivíduos [...]. Portanto, o acesso e a difusão da informação mediada pelo
computador possibilitam a diversidade, e amplia o conhecimento social, econômico,
cultural e político de uma sociedade.
O autor entende que as redes sociais englobam o relacionamento comunicacional entre
os sujeitos sociais com objetivos comuns, convergindo para o intercâmbio de experiências,
originando e mantendo o fluxo de informações relevantes para todos os envolvidos no
processo.
Marteleto (2001, p. 72) ratifica esse entendimento ao dizer que “[...] a rede social [...]
passa a representar um conjunto de participantes autônomos, unindo ideias e recursos em
torno de valores e interesses compartilhados”. Sucintamente, Tomáel, Alcará e Di Chiara
(2005, p. 93) percebem que “as redes sociais constituem uma das estratégias subjacentes
utilizadas pela sociedade para o compartilhamento da informação e do conhecimento,
mediante as relações entre atores que as integram”. Notamos então que a noção de rede social
desses autores compactua com um mesmo ponto de vista.
Embora as redes sociais tenham ganhado mais notoriedade com a web, Cruz (2010)
atenta que a expansão desse fenômeno é predecessor ao surgimento da rede mundial de
computadores. Na verdade, as relações sociais que mantemos cotidianamente no ambiente de
trabalho, na escola e entre os vizinhos constituem redes sociais. A Internet, mais precisamente
em sua segunda geração, abriu espaço para que essas relações e as interações sociais se
“digitalizassem” e passassem a ser mediadas também pelo computador com acesso à rede
mundial de computadores. Essa atividade só foi possível com a criação de sites de redes
sociais na Internet. Por isso, a vulgarização dessa expressão.
Pertinentemente a essa discussão, faz-se necessário sabermos que os elementos que
constituem a essência das redes sociais independem do acesso à Internet. Elas são formadas
por atores sociais (indivíduos, grupos, organizações, etc.) e suas conexões, entendidas como
as interações e os laços sociais construídos entre eles. Os atores sociais podem ser
considerados como os nós da rede que moldam e são moldados pelas interações sociais que
eles mantêm com os outros atores. As interações que ocorrem entre eles são as conexões, que
representam a parte mais complexa dos estudos das redes sociais, na medida em que a
modificação e a estrutura desses grupos sociais dependem da oscilação dessas (RECUERO,
2009). Por sua vez, as conexões dependem da força dos laços sociais, que são classificados
em fortes e fracos. Os primeiros se relacionam às trocas constantes e recíprocas, buscando o
aprofundamento das interações sociais, requerendo mais tempo e intensidade emocional nas
trocas. Os últimos estão relacionados à circulação e ao fluxo da informação, relegando-se os
aspectos anteriores.
A hierarquização horizontal característica da web 2.0 abre espaços para que várias
temáticas sejam discutidas em seus ambientes interativos. Com as redes sociais online, isso
ocorre de forma semelhante. Os motivos que levam os atores sociais à formação das redes
sociais são infindáveis, entretanto, Marteleto (2001) garante que os debates mais expressivos
giram em torno dos eventuais questionamentos na área do direito, da responsabilidade e,
inclusive, da tomada das decisões. Essa observação trazida pela autora evidencia o quanto as
redes sociais online se tornam espaços mais democráticos e abertos a discussões relevantes
para os setores que envolvem a sociedade.
Perante esse apanhado teórico, é notório considerar que a sociedade está em rede,
criando novas formas de interação humana, adaptadas ao nosso novo ambiente tecnológico.
Nesse aspecto, Castells (1999, p. 40) considera as redes sociais online como
[...] um novo sistema de comunicação que fala cada vez mais uma língua universal
digital [que] tanto está promovendo a integração global da produção e distribuição
de palavras, sons e imagens de nossa cultura como personalizando-os ao gosto das
identidades e humores dos indivíduos. As redes interativas de computadores estão
crescendo exponencialmente, criando novas formas e canais de comunicação,
moldando a vida e, ao mesmo tempo, sendo moldados por ela.
É possível ponderar que a rede mundial de computadores é um fomentador do
surgimento e da concretização dos laços sociais que, por vezes, encontram-se cada vez mais
enfraquecidos devidos às atividades rotineiras da sociedade contemporânea. Os vínculos
sociais que brotam na web possibilitam que as pessoas estabeleçam e mantenham relações
que, provavelmente, seriam impossibilitadas de mantê-las na vida offline. Ainda segundo
Castells (1999, p.445) acerca dos laços que surgem através da web, é comentado que
A Rede é especialmente apropriada para a geração de laços fracos e múltiplos. Os
laços fracos são úteis no fornecimento de informações e na abertura de novas
oportunidades de baixo custo. A vantagem da Rede é que ela permite a criação de
laços fracos com desconhecidos, num modelo igualitário de interação, no qual as
características sociais são menos influentes na estruturação, ou mesmo no bloqueio
da comunicação. De fato, tanto off line quanto on line, os laços fracos facilitam a
ligação de pessoas com diversas características sociais, expandindo a sociabilidade
para além dos limites socialmente definidos do auto-conhecimento.
Outro ponto de interatividade e, portanto, de destaque da web interativa é a explosão
das comunidades virtuais. Lemos e Lévy (2010) apresentam uma conceituação bastante
simplista das comunidades virtuais ao dizer que se trata de “um grupo de pessoas que estão
em relação por intermédio do ciberespaço”. Os teóricos compreendem que a discussão em
torno das comunidades virtuais teve início com a publicação do livro Virtual Communities
(1993), de Howard Rheingold. Esse expoente definiu as comunidades virtuais como
“agregados sociais que surgem da Rede [Internet], quando uma quantidade suficiente de gente
leva adiante essas discussões públicas durante um tempo suficiente, com suficientes
sentimentos humanos, para formar redes de laços sociais no ciberespaço” (RHEINGOLD,
1995 apud RECUERO, 2008, p. 65).
Diferentemente das comunidades físicas, as comunidades virtuais têm a vantagem de
estarem territorialmente dispersas, o que aumenta exponencialmente a possibilidade de
interação com um grupo ainda maior e mais diversificado de sujeitos sociais. Essa
característica confere maior dinamicidade e diversidade do fluxo de informação que circula
nesses espaços interativos.
No campo da Ciência da Informação, a definição mais pertinente ao nosso estudo e
que melhor se aproxima às proposições introdutórias de Rheingold e dos demais autores
supracitados corresponde à de Szabó (2008, p. 21), para quem as comunidades virtuais são
agregados sociais que surgem a partir das interações entre os indivíduos que,
independentemente de suas localizações geográficas, trocam impressões e saberes
sobre determinado tema de interesse de forma constante, possibilitando o
conhecimento e a ação em decorrência dessas ações.
Os elementos constituintes das comunidades virtuais são, segundo Recuero (2008), as
discussões públicas, os atores sociais que mantêm encontros e reencontros para dar
prosseguimento às discussões, o tempo e o sentimento que motiva essas interações. A autora
acrescenta ainda que o surgimento das comunidades virtuais está relacionado às redes sociais
online por meio das interações que ocorrem nesses espaços, de maneira que quanto mais
houver interação nas redes sociais online, maior será a probabilidade de surgimento das
comunidades virtuais para dar prosseguimento às discussões em um lugar específico e voltado
apenas a essa tarefa.
Porém, devemos considerar a existência de comunidades virtuais que são opostas a
essa concepção. Como exemplo, temos a Wikipédia, que desde seu surgimento teve como
proposta inicial ser uma comunidade virtual e só posteriormente ela abriu espaço para que
seus colaboradores pudessem interagir constantemente entre si, formando também uma rede
social de colaboradores e editores dessa enciclopédia. Dessa forma, registramos a presença de
comunidades virtuais que originaram redes sociais online ao longo de seu funcionamento,
acontecendo de maneira inversa ao que Recuero (2008) afirma.
Certamente, as comunidades virtuais apresentam particularidades que as distinguem
das comunidades físicas, não se tratando de pólos antagônicos, mas específicos. Castells
(1999, p. 444-446) concebe as comunidades virtuais como
formas diferentes de comunidade, com leis, dinâmicas específicas, que interagem
implicitamente com o conceito idílico de comunidade, de uma cultura muito unida,
espacialmente definida, de apoio e aconchego, que provavelmente não existia nas
sociedades rurais, e que decerto desapareceu nos países desenvolvidos. [...] As
comunidades virtuais não são comunidades físicas, e não seguem os mesmos
modelos de comunicação e interação das comunidades físicas, porém não são irreais,
funcionam em outro plano da realidade. São redes sociais interpessoais, em sua
maioria, baseadas em laços fracos, diversificadíssimos e especializadíssimos capazes
de gerar reciprocidade e apoio por intermédio da dinâmica da interação sustentada.
Seguindo essa linha de raciocínio, Medeiros (2003, p. 35) endossa o mesmo discurso
ao afirmar que
as comunidades virtuais não constituem um mundo à parte do mundo físico, nem são
meramente paralelismo existencial. São realidades conflituosas, éticas e morais,
cheias de afinidades e amizades, grupos de relacionamento e discussão, assim como
no mundo físico. Sendo assim, não são comunidades irreais ou ilusórias, mas
coletivos em contínua organização, articulando-se por meio da comunicação
eletrônica. São comunidades atuais, coordenadas pela cibercultura, cujas metas
devem contemplar a construção do laço social de cidadania e democracia, livrando-
se das normas legitimamente impositoras das instituições e das relações de poder
hierarquizadas por organogramas do sistema. Nascendo para o interesse comum, as
comunidades virtuais, constituintes da sociedade ciberinformacionais, estão
inclinadas a efetivarem os laços de socialização do saber e aprendizagens
cooperativas.
Ainda no âmbito das comunidades virtuais, o agregado social eletrônico que se forma
pode ter duas conotações: comunitárias e não comunitárias. Lemos e Lévy (2010) discursam
que, na primeira, os participantes compactuam o ponto de vista de que o compartilhamento
simbólico de emoções e sentimentos são de fundamental importância para a dinâmica do
grupo. Já na segunda, o envolvimento emocional entre os membros participantes é
dispensável porque os participantes estão mais focados em compartilhar informações e
experiências de forma transitória. Inferimos que as agregações comunitárias têm na
subjetividade o estímulo para a relação grupal, enquanto as não-comunitárias estão centradas,
em sua maioria, na objetividade.
Com base no que expomos até o presente momento, apresentamos abaixo um quadro
comparativo que apresenta as características mais marcantes entre as gerações 1.0 e 2.0 da
web.
Quadro 1: Gerações da Web
Web 1.0 Web 2.0
Sistema fechado Sistema aberto
Ambiente estático Ambiente dinâmico
Leitura de conteúdo Leitura/escrita de conteúdo
Baixo poder interativo Alto poder interativo
Interação predominantemente reativa Multi-interação (interação reativa + interação mútua
simultaneamente)
Produção hierárquica (um-todos) Produção hierárquica inexistente
Comunicação preestabelecida Comunicação dinâmica sempre em desenvolvimento
Conteúdo controlado Conteúdo coletivo (colaborativo)
Explosão de plataformas interativas: redes sociais,
comunidades virtuais, sistemas abertos, etc.
Fonte: Elaborado pela autora.
A web é um espaço passível a mudanças evolutivas constantes. Essa concepção pode
ser nitidamente perceptível na rápida transição de uma fase para outra. O anseio por
renovações e inovações constantes desponta para uma terceira geração: a web 3.0 ou web
semântica. Na academia, é possível visualizar os debates acerca dessa transição tecnológica.
A quantidade de informações que tomou conta da web a partir das plataformas abertas
e interativas dificultou o trabalho dos usuários em localizar e recuperar as informações para
suprir as suas necessidades informacionais. Nesse sentido, a web 3.0 surgirá como uma
proposta de aperfeiçoar os recursos informacionais conferindo significados a eles, cessando
ou, pelo menos, diminuindo os problemas relacionados à busca, à localização e à recuperação
das informações de que os usuários precisam. Em outras palavras,
a Web Semântica [ou web 3.0] seria uma extensão da Web atual que apresentaria
recursos informacionais melhor estruturados e representados, ou seja, o conteúdo
informacional destes recursos seriam melhor explicitados e definidos
semanticamente, formando uma rede de informações conectadas que por meio de
ferramentas tecnológicas, tais como os agentes de software, proporcionaria uma
melhor recuperação de informação (ALVES, 2005, p. 28).
Seguindo essa linha de proposições, Villalobos e Silva (2010) afirmam que a web
semântica tem como primado fundamental a construção de uma rede na qual os documentos
tenham a possibilidade de serem representados de forma contundente e estruturados, de modo
a permitir a indexação mais eficaz para apresentar resultados cada vez mais precisos.
Mesmo com o estágio avançado das discussões sobre esse assunto, Passarelli (2008)
afirma que a web 3.0 está distante de ser uma realidade concreta nos dias atuais porque a
tecnologia a ser usada por essa nova geração é inexistente até o momento. A autora afirma
que um dos problemas na transição da 2.0 para a 3.0 diz respeito à dificuldade de se
categorizar em tags todo o estoque informacional que se encontra disponibilizado na web
atualmente. Outro problema citado corresponde à ausência de um acordo para a escolha dos
protocolos dos metadados mais adequados à otimização das atividades a serem realizadas
nessa geração.
A existência de todos esses percalços, segundo Passarelli (2008), não impediu o
surgimento de projetos isolados baseados nas concepções da web semântica, como Friend of a
Friend (FOAF), que formam descrições pessoais sucintas em uma linguagem denominada
Resource Description Framework (RDF), disponibilizadas apenas para programadores, e o
Google Image Labeler, que convoca pessoas a indexar fotografias digitais segundo seus
conteúdos. Esse último projeto funciona como uma competição, na qual os participantes
devem colaborar e competir entre si para ver quem indexa mais imagens. É um sistema
baseado no coopetition (colaboração e competição).
2.2 A Consolidação do Ciberespaço na Comunicação da Informação Digital
A criação da word wide web, mais precisamente da web 2.0 e da rede hipertextual,
segundo informa Monteiro (2007), foi responsável pela extensa disseminação do que hoje
denominamos de ciberespaço.
Compreender a dinamicidade e a fluidez que envolve o ciberespaço é uma tarefa
basilar nos dias atuais, considerando que a grande maioria das atividades humanas ocorre
nesse ambiente. Willliam Gibson foi pioneiro a se debruçar sobre essa questão, publicando,
em 1984, no livro Neuromancer, a primeira definição sobre o ciberespaço. A conceituação
dele foi traduzida e republicada em vários idiomas, inclusive, em português. Para o autor, o
ciberespaço é
Uma alucinação consensual vivida diariamente por bilhões de operadores
autorizados, em todas as nações, por crianças aprendendo altos conceitos
matemáticos... Uma representação gráfica de dados abstraídos dos bancos de dados
de todos os computadores do sistema humano. Uma complexidade impensável.
Linhas de luz abrangendo o não-espaço da mente; nebulosas e constelações
infindáveis de dados. Como marés de luzes da cidade (GIBSON, 2003, p.67).
Na realidade, a definição de ciberespaço, aparentemente abstrata, elaborada por
Gibson, serviu de base para designar a amplitude que abarca as redes digitais, considerando
esse novo espaço como uma área de confronto entre as organizações estrangeiras, cenário de
embates mundiais e um espaço dedicado às interações, ao intercâmbio cultural e às relações
econômicas.
A conceituação de Gibson impulsionou a evolução e o desenvolvimento de sucessivas
definições sobre o novo espaço digital. Os novos estudos fizeram surgir concepções cada vez
mais abrangentes, como a de Lévy (1999, p. 92, grifo do autor):
Eu defino o ciberespaço como o espaço de comunicação aberto pela interconexão
mundial de computadores e das memórias dos computadores. Essa definição inclui
o conjunto dos sistemas de comunicação eletrônicos [...], na medida em que
transmitem informações provenientes de fontes digitais ou destinadas à
digitalização. Insisto na codificação digital, pois ela condiciona o caráter plástico,
fluido, calculável com precisão e tratável em tempo real, hipertextual, interativo e,
resumindo, virtual da informação que é, parece-me, a marca distinta do ciberespaço.
Esse novo meio tem a vocação de colocar em sinergia e interfacear todos os
dispositivos de criação de informação, de gravação, de comunicação e de simulação.
A perspectiva da digitalização geral das informações provavelmente tornará o
ciberespaço o principal canal de comunicação e suporte de memória da humanidade
a partir do início do próximo século.
As impressões desses autores são similares quanto à ideia central do ciberespaço, e
Monteiro (2007) também compartilha desse mesmo ponto de vista. Na literatura da autora, o
ciberespaço é concebido como um espaço virtual e desterritorializado capaz de disponibilizar
uma quantidade incalculável de informações, que agrega todas as mídias anteriores e oferece
recursos ainda maiores se comparado às outras formas de obtenção de informação. Ela
considera que ainda há muito o que se descobrir no ciberespaço porque este ainda é um
terreno permeado de incertezas e desafios que pairam sobre seus postulados teóricos e
práticos. O que se tem de concreto sobre ele é que ele se trata de um espaço aberto, fluido,
dinâmico e navegável, que possibilita a interação entre homem-máquina, máquina-máquina,
homem-máquina-homem. Ao adentrar nesse espaço “místico”, o usuário transpõe as barreiras
geográficas e espaciais, podendo intercambiar informação e conhecimento em vasta escala.
Consequentemente, o ciberespaço rompe com a concepção de espaço fixo e demarcado pelas
delimitações de linhas e espaços geográficos estáticos.
Essas peculiaridades nos permitem enxergar o ciberespaço como o único meio de
informação e comunicação técnico capaz de ser acessado em tempo real e em nível global,
graças às potencialidades da Internet. A acessibilidade, a usabilidade, o baixo custo e o
alcance mundial foram fatores determinantes para que o ciberespaço passasse a ser estimado
como o mass-media da pós-modernidade (OLIVEIRA; VIDOTTI; CABRAL, 2005).
O expressivo exponencial de informações que se encontram indexadas no ciberespaço
levou Vidotti (2001, p. 44) a ver esse espaço digital como “uma grande biblioteca, ou como
um ambiente hipermídia coletivo, no qual os usuários são agentes ativos do processo de
armazenamento, indexação, recuperação e disseminação de documentos eletrônicos
hipertextuais, um ambiente auto-organizado em permanente mutação”. Fazendo uma
aproximação ao objeto de estudo, consideramos a Wikipédia como a enciclopédia mais
volumosa desse acervo, pois ela está constantemente sendo revisada e atualizada pelos seus
editores, de forma voluntária e colaborativa.
A possibilidade de congregar diversos atores sociais em um mesmo espaço para
discutir questões que vão desde política e cidadania até futebol, fez com que o ciberespaço
fosse visto por Velloso (2008) como a ágora eletrônica da modernidade, isto porque, na
Antiguidade Clássica, as interações e os debates mais importantes da sociedade grega eram
realizados na ágora (ou polis grega). Na sociedade atual, esses debates podem e são mediados
pelas tecnologias digitais, que trazem um espírito renovador ao poder incluir um número
maior de pessoas distribuídas em espaços geograficamente dispersos em torno de uma mesma
discussão, dispensando-se, por vezes, aspectos como religião, idade, cultura e nacionalidades
díspares.
A instituição da ágora eletrônica na sociedade moderna só é possível devido aos três
pilares que sustentam a cibercultura: a interconexão, as comunidades virtuais e a inteligência
coletiva. As partes constituintes do ciberespaço são relatadas por Lévy (1999) como os fatores
que elevaram o crescimento e a importância desse ambiente virtual desde o início. Notemos
também que esses três pilares da cibercultura só foram possíveis de se estabelecer a partir da
segunda geração da web, pois, na primeira, o nível de interatividade com e entre os usuários
era bastante irrisório, inviabilizando a existência das comunidades virtuais, da inteligência
coletiva e das interconexões.
A cultura que rege as atividades que acontecem no ciberespaço, ou simplesmente
cibercultura, considera a interconexão como fator indissociável e essencial para a
comunicação universal, caminhando em direção a uma civilização da telepresença
generalizada. A interconexão “constitui a humanidade em um contínuo sem fronteiras, cava
um meio informacional oceânico, mergulha os seres e as coisas no mesmo bando de
comunicação interativa” (LÉVY, 1999, p. 127). O ideal de interconexão é ter todos ou, pelo
menos, a maioria dos indivíduos conectados, mantendo conexões à distância cada vez maiores
e melhores.
A partir do momento em que esses indivíduos passam a se relacionar através dessas
interconexões, surgem as comunidades virtuais, oriundas da comunicação interativa em rede.
Retomando as considerações sobre comunidades virtuais, Lévy (1999, p. 197) informa que ela
“é construída sobre as afinidades de interesses de conhecimentos, sobre projetos mútuos, em
um processo de cooperação ou troca, tudo isso independentemente das proximidades
geográficos e das filiações institucionais”. O autor discorre que a reunião das pessoas para a
formação das comunidades virtuais abarcam as emoções, o envolvimento, a responsabilidade
individual e a opinião pública. A “netiqueta” aparece como o conjunto de leis que regem a
dinâmica dessas interações, principalmente, no que tange à pertinência das informações que
circulam nesses espaços. A reciprocidade também é considerada como elemento essencial das
comunidades virtuais.
Ainda segundo Lévy (1999), a melhor forma de fazermos uso das vantagens que o
ciberespaço dispõe é mobilizando as competências intelectuais dos seus usuários, otimizando
e agregando informações e conhecimentos a tudo que transita nesse espaço. As concepções da
inteligência coletiva serão debatidas mais adiante, mas, antes, é preciso ter clareza de que se
trata de um campo de “embates”. De um lado, trata-se, nas palavras de Lévy (1999), de um
“veneno” para aqueles que não podem e não participam da inteligência coletiva de tão vasta e
complexa que ela é. De outro, ela é um “remédio” para aqueles que conseguem navegar e
fazer parte dessa dinâmica, valorizando as experiências individuais dos sujeitos sociais.
2.3 A Linguagem Hipertextual no Ciberespaço
Sem sombra de dúvidas, a linguagem hipertextual é uma marca no ciberespaço. Os
primeiros passos para a invenção do hipertexto foram dados pela primeira vez em 1945, por
Vannevar Bush, em seu artigo intitulado “As We May Think”. Bush propôs a criação de um
dispositivo nomeado memex para mecanizar a classificação e a seleção por associação aos
princípios da indexação clássica. No entanto, era necessária a invenção de um dispositivo
capaz de abranger os mais variados tipos de documentos, contendo sons, imagens e textos. O
memex de Bush daria a possibilidade de criar “interconexões” independentemente da
hierarquização existente entre uma informação ou outra, funcionando como uma espécie de
links, embora essa designação tenha ficado fora de cogitação.
O Memex, portanto, permitiria o acesso rápido e não-linear a diversas unidades
individuais de informação multimídia relacionadas por meio de ligações. Para
Shneiderman e Kearsley, essa idéia de Bush trata do elemento mais importante do
hipertexto: os links entre documentos (DIAS, 1999, p. 269).
No limiar dos primeiros anos da década de 1960, o desenvolvimento dos sistemas
teleinformáticos estava se instalando, quando Theodore Nelson designou o termo hipertexto
para nomear a escrita e a leitura não-linear em sistemas de informática. A idealização de
Nelson era implantar uma rede acessível em tempo real capaz de conectar a maior quantidade
de escritos literários e científicos do mundo. Dessa maneira, várias pessoas poderiam manter
relações interpessoais, utilizando a linguagem hipertextual mediante o uso do Xanadu.
Os avanços da ciência e da tecnologia contribuíram para a evolução dos projetos
Memex e Xanadu, originando o que hoje temos e conhecemos como hipertexto. As
características principais do hipertexto sofreram poucas transformações ao longo do tempo e,
por definição, ele continua sendo uma rede textual não-linear, aberta, interconectada a outros
textos em áudio, vídeo, imagem ou mesmo textos escritos.
Lévy (1993, p. 33) apresenta duas definições para o hipertexto. Na perspectiva técnica,
o hipertexto é “um conjunto de nós ligados por conexões. Os nós podem ser palavras, páginas,
imagens, gráficos ou parte de gráficos, sequências sonoras, documentos complexos que
podem ser eles mesmos hipertextos”. Na perspectiva funcional “o hipertexto é um tipo de
programa para a organização de conhecimentos ou dados, a aquisição de informações e a
comunicação” (LÉVY, 1993, p. 33).
Oliveira, Vidotti e Cabral (2005) partem da concepção de que o ciberespaço engendra
e articula um hipertexto soberano, construído por um número superior de interconexões
generalizadas, mantendo um ciclo de auto-organização e retroalimentação constante. Para os
autores, o hipertexto é um conjunto vivo de significações que está linkado com os
componentes do ciberespaço: os hiperdocumentos, os indivíduos e ambos simultaneamente.
Tomamos as palavras de Rezende (2000, p. 2) para clarear ainda mais esse entendimento:
Hipertexto pode ser visto como uma forma, um modo ou um estilo de armazenar,
representar, apresentar e recuperar informações. Não existe propriamente numa
estrutura ou organização, porque, se estende numa configuração de rede, que pode
ser redesenhada a cada usuário que dela se utiliza. Sua dinâmica é ditada pela função
associativa, que fornece links entre os diversos nós da rede, permitindo a navegação
do usuário por trilhas que ele escolher. Outro ponto a ser destacado é a mediação, a
interface representada pela tecnologia computacional, que vai dar suporte para que
essas funções possam ocorrer de maneira interativa e em tempo real.
Além dessas especificidades mencionadas, a interatividade é considerada por Dias
(1999), Santaella (2004), Passarelli (2008) e Rezende (2000) como uma das marcas da
linguagem hipertextual no ciberespaço. As autoras consideram a interatividade como o fator
determinante que possibilita que o usuário/leitor tenha a liberdade de traçar e escolher quais
são os percursos que ele deve trilhar na sua leitura imersiva.
No entendimento de Passarelli (2008), o hipertexto é um avanço bastante significativo
na autonomia do leitor porque rompe com a narrativa linear consagrada em vários anos de
escrita. Na verdade, desde os primórdios, a escrita também dispunha (e ainda dispõe) de
mecanismos hipertextuais que quebram a linearidade do texto escrito pelo autor, como as
notas de rodapé, sumários e imagens. O diferencial entre os hipertextos digitais e analógicos
incide na identificação em que cada qual se inicia. Nos (hiper) textos analógicos, a
identificação de início, meio e fim é mais notável, enquanto no hipertexto digital, a
delimitação em início, meio e fim é mais complexa de ser identificada.
Ao se materializar no espaço digital, o hipertexto apresenta algumas modificações em
relação aos hipertextos impressos, especialmente nos aspectos de linearidade, unicidade,
permanência e autoria (FREIRE, 2003). A linearidade é quebrada ao passo em que
leitor/usuário seleciona aleatoriamente quais são os caminhos a serem percorridos no trajeto
da sua leitura. A unicidade parte do pressuposto de que o hipertexto, especialmente o digital,
pode possuir inúmeros textos, inclusive, de autores distintos. A permanência está ligada à
ideia de que, no hipertexto digital, nada é permanente, porque as informações linkadas podem
ser alteradas a qualquer hora e sem aviso prévio. A autoria se relaciona com a noção de
agregação de informação e conhecimento aos hipertextos digitais.
Indubitavelmente, o hipertexto é passível de modificações mediante as evoluções que
acontecem no transcorrer das atividades humanas. Lévy (1993) estabelece seis princípios
abstratos capazes de identificar o hipertexto frente às possíveis mudanças:
a) Princípio da metamorfose: a rede hipertextual está em permanente construção e
renegociação;
b) Princípio da heterogeneidade: os nós e as conexões de um hipertexto são,
essencialmente, heterogêneos por abrangerem indivíduos, grupos, artefatos, forças
naturais, associando as partes em várias possibilidades;
c) Princípio da multiplicidade de encaixe das escalas: a organização do hipertexto se dá
de forma “fractal”, ou seja, o nó ou a conexão pode ser constituído por uma ou mais
redes;
d) Princípio da exterioridade: o crescimento ou a modificação da rede hipertextual
depende da agregação de elementos novos e externos a ela;
e) Princípio da topologia: o funcionamento da rede hipertextual se dá por proximidade,
vizinhança. A rede hipertextual não está presente no espaço, ela é o próprio espaço; e
f) Princípio da mobilidade dos centros: o hipertexto não possui um centro fixo. Aliás, a
rede hipertextual possui muitos centros móveis que transitam de um lado para outro.
Todas essas considerações exibidas em torno da rede hipertextual conferem ao
ciberespaço e à sociedade contemporânea características como instantaneidade,
transitoriedade, interoperabilidade e interatividade (PASSARELLI, 2008).
2.4 Inteligência Coletiva: Rumo ao Espaço do Saber
A inteligência coletiva aparece como um elemento basilar da cibercultura e da
interatividade ao passo em que alicerça toda a sua dinâmica de funcionamento. Como dito
anteriormente, a inteligência coletiva tem como excelência a valorização dos saberes dos
sujeitos.
Nas observações de Lévy (1998), a partir do momento em que o saber, em sua mais
ampla magnitude, passar a ser considerado como fator primordial à vida em sociedade,
teremos o nascimento de um “novo espaço antropológico”: o Espaço do Saber. Essa nova
antropologia teria potencialidades suficientes para reger os antigos espaços antropológicos: a
Terra, o Território e o Espaço Mercantil (ou de mercadorias). Nessa perspectiva, o espaço
antropológico “é um sistema de proximidade (espaço) próprio do mundo humano
(antropológico), e, portanto, depende de técnicas, de significações, da linguagem, da cultura,
das convenções, das representações e das emoções humanas” (LÉVY, 1998, p. 23).
O primeiro dos espaços ocupados pela humanidade foi a Terra. Por isso, é um espaço
dotado de signos, significados e sentidos. É na Terra que se encontram todas as formas de
vida da natureza, é o lugar onde todas essas esferas estão em permanente interação,
comunicando-se, evoluindo e metamorfoseando-se cotidianamente. A linguagem, as técnicas
e as formas complexas de organização social são características que nos permitem ser
diferenciados dos outros seres vivos. Esse espaço antropológico também é marcado pelos
mitos e pelos ritos próprios do homem (LÉVY, 1998).
O segundo espaço, o Território, começa a se desenhar ainda sobre a Terra, a partir da
criação e domesticação de animais. As marcas mais expressivas do Território também se
fazem presentes quando se observa o rápido desenvolvimento da agricultura e das cidades,
desencadeando no aparecimento da escrita e do Estado. As paisagens naturais dominantes na
Terra “cedem” espaços para a arquitetura (LÉVY, 1998).
O Espaço Mercantil (ou das mercadorias) começa a se desenvolver ainda no século
XVI, com o advento de um espaço mundial originado da conquista das Américas pelos
europeus. O fluxo é o vetor que organiza o terceiro espaço, seja de energias, matérias-primas,
mercadorias, capitais, mão de obra e informações. A velocidade se torna o fator condicionante
da evolução da sociedade. Nesse sentido, as indústrias de tratamento de matérias e da
informação se tornam visivelmente soberanas. Aos poucos, a tecnociência passa a conquistar
seu espaço no terceiro espaço antropológico (LÉVY, 1998).
A emergência do quarto espaço, o Espaço do Saber, trará a probabilidade de
reconfigurar os espaços anteriores. O diferencial desse espaço é inserir no cerne de suas
atividades a inteligência e o saber coletivo. Lévy (1998) afirma que as redes econômicas e
potências territoriais dependem consideravelmente da alta velocidade do aprendizado e da
imaginação coletiva da humanidade. No que se refere ao diferencial, o autor aponta três
vantagens: a velocidade na evolução dos saberes, a grande quantidade de indivíduos
convidados a aprender e a gama de variedades existentes no ciberespaço. A sinergia desses
três elementos tem a capacidade de permitir “paisagens inéditas e distintas, identidades
singulares, específicas desse espaço, [e] novas figuras sócio-históricas” (LÉVY, 1998, p. 24).
Uma característica marcante do Espaço do Saber é que ele “incita a inventar um laço
social em torno do aprendizado específico, da sinergia das competências, da emancipação e da
inteligência coletiva” (LÉVY, 1998, p. 26).
Freire (2005, p. 135) reforça essas considerações ao falar que,
no espaço do saber, as tecnologias da informação e da comunicação nos permitiriam
criar e percorrer mundos virtuais, colocando sobre novas bases os problemas do laço
social e abrindo possibilidades não somente para pensarmos coletivamente a
aventura humana, mas principalmente influenciá-la [...] [e direcioná-la para o
surgimento de inteligências coletivas da humanidade].
Outro ponto de destaque são as considerações de Andrade et al (2011, p. 2) que
revelam que, para a construção do Espaço do Saber, de fato, é necessário que haja a adoção de
instrumentos e técnicas capazes de otimizar e racionalizar a informação para que se torne
suficientemente acessível, “de modo que cada um possa orientar-se e reconhecer seus pares
em função dos seus interesses, competências, projetos, meios e identidades recíprocos”. Nesse
horizonte, vemos que as tecnologias digitais da informação e da comunicação citadas por
Freire (2005) podem ser consideradas como uma solução pertinente a essa questão.
E a pergunta que paira sobre nós, de quando se instala o Espaço do Saber, é
respondida por Lévy (1998, p. 28):
O Espaço do Saber começa a viver desde que se experimentam relações humanas
baseadas nesses princípios éticos da valorização dos indivíduos por suas
competências, de transmutação efetiva das diferenças em riqueza coletiva, de
integração a um processo social dinâmico de troca de saberes, no qual cada um é
reconhecido como uma pessoa inteira, não se vendo bloqueada em seus percursos de
aprendizado por programas, pré-requisitos, classificações a priori ou preconceitos
em relação aos saberes nobres ou ignóbeis.
Através da evolução interativa da web, percebemos que o ciberespaço e o Espaço do
Saber são cristalizados na dinâmica da cibercultura. Nessa perspectiva, Passos e Silva (2012)
afirmam que as noções de sociedade em rede em consonância com os mecanismos de
interação dispostos pela geração 2.0 são subsídios impulsionadores da inteligência coletiva no
ciberespaço, e, consequentemente, do Espaço do Saber. A conotação de inteligência coletiva
para as autoras tem o sentido de que se refere “a um tipo de inteligência que é disseminada em
grande escala e em tempo real no ciberespaço” (PASSOS; SILVA, 2012, p. 129).
A concepção de Medeiros (2001, p. 6) é mais completa e diz que a “inteligência
coletiva é entendida mediante a relação dos saberes com a práxis social, seja individual-
comunitária seja virtualmente pertencente à invisibilidade dos traços do ciberespaço, este
último articulador dos vários saberes”. Essa compreensão de Medeiros (2001) se aproxima
bastante das considerações de Lévy (1998) acerca do Espaço do Saber.
A inteligência coletiva é aquela que se faz presente em todos os lugares, sumariamente
valorizada e também coordenada em tempo real, resultante da mobilização das competências
dos indivíduos, cuja base fundamental é o reconhecimento e a valorização mútua das pessoas
(LÉVY, 1998).
A inteligência coletiva amplia consideravelmente a dimensão da comunicação humana
ao permitir o compartilhamento de conhecimento, direcionando-o de pessoa para pessoa
(ANDRADE et al, 2012). Nesse aspecto, ela ultrapassa a conotação de pôr os indivíduos em
consonância para “trabalhar” em conjunto e atingir uma finalidade específica, passando a
considerar também as experiências individuais positivas e negativas dos sujeitos envolvidos.
Para Brennand (2001, p. 4),
[a] inteligência coletiva se constrói através do diálogo de saberes. O diálogo entre os
saberes diversos pode permitir o estabelecimento de consensos que se apoiam sobre
os elementos do mundo da vida, permitindo aos indivíduos compartilhar seus planos
de ação e fomentar a ação comunicativa que é a responsável pela coordenação do ato
social. A ação voltada ao entendimento pressupõe a existência de um espaço
democrático de construção, potencializado pela ação crítica que vai desencadear a
capacidade de construção crítica do pensamento e da ação.
Para tanto, reafirmamos que é preciso considerar o saber em sua totalidade. O saber
tem de ser visto e considerado sob a ótica de Lévy (1998, p. 121), que diz:
Não se trata apenas, é claro, do conhecimento específico – recente, raro e limitado -,
mas daquele que qualifica a espécie homo sapiens. Cada vez em que um ser humano
organiza ou reorganiza a sua relação consigo mesmo, com seus semelhantes, com as
coisas, com os signos, com o cosmo, ele se envolve em uma atividade de
conhecimento, de aprendizado. O saber, no sentido em que o entendemos aqui, é um
savoir-vivre [saber-viver] ou um vivre-savoir [viver-saber], um saber co-extensivo à
vida. Tem a ver com um espaço cosmopolita e sem fronteiras de relações e de
qualidades, um espaço da metamorfose das relações e do surgimento das maneiras
de ser; um espaço em que se unem os processos de subjetivação individuais e
coletivos [...]. O Espaço do saber é habitado, animado, por intelectuais coletivos –
imaginantes coletivos – em permanente reconfiguração humana.
Continuamente, o axioma inicial da inteligência coletiva consiste em ver a inteligência
presente por todos os lados. Sob essa visão, ninguém sabe tudo, mas todos sabem algo de
importante e de valor que merece ser compartilhado com os demais. Todos detêm um
conhecimento específico em uma área também específica. Essas considerações constituem o
que Lévy (1998) chama de uma inteligência distribuída por toda parte.
Valorizar as inteligências que se encontram espalhadas por todas as partes é
primordial, e essa valorização deve extrapolar as concepções de que uma pessoa inteligente é
aquela que possui um alto nível de instrução escolar. Os saberes ultrapassam as fronteiras das
instituições de ensino e das classes sociais. Esses preceitos constituem o que se chama de uma
inteligência incessantemente valorizada (LÉVY, 1998).
A coordenação das inteligências individuais deve ser feita através das interações no
ciberespaço em tempo real. A meta principal, na coordenação das inteligências em tempo
real, é transformar o ciberespaço em um “espaço móvel das interações entre conhecimentos e
conhecedores de coletivos inteligentes desterritorializados” (LÉVY, 1998).
O ideal de inteligência coletiva requer a mobilização efetiva das competências
(LÉVY, 1998). Para isso, é mister identificar, reconhecer e valorizar essas competências,
direcionando-as para o exercício das tarefas a serem realizadas coletivamente.
O ciberespaço vai se consolidando aos poucos como o quarto espaço antropológico, ou
Espaço do Saber. Chegamos a essa compreensão ao percorrer todo o trajeto evolutivo da rede
mundial de computadores e constatar que as ferramentas colaborativas e os espaços abertos de
interação valorizam o que os seres humanos têm de mais precioso: o saber.
É importante ressalvar que a compreensão de inteligência coletiva no ciberespaço se
consolida também nos processos colaborativos, nos softwares livres e produções culturais
coletivas abertas. Essas exposições serão abordadas mais detalhadamente no capítulo
seguinte.
3 PRODUÇÃO COLABORATIVA DE CONTEÚDOS NO CIBERESPAÇO
O trabalho colaborativo emerge como uma das prerrogativas fundamentais da web 2.0.
A difusão dessas práticas colaborativas ganhou mais visibilidade por meio da adesão dos
usuários às ferramentas gratuitas de inserção de conteúdo e de fácil manipulação. Porém, faz-
se necessário evidenciar que o trabalho colaborativo é antecedente ao surgimento das
tecnologias de informação e comunicação, e é justamente devido a este trabalho em conjunto
que foi possível o aparecimento dessas tecnologias. Notadamente, o trabalho colaborativo e
cooperativo é inerente à própria vida em sociedade porque ela é composta de indivíduos
sociais que mantêm relações sociais e são interdependentes entre si no que se refere ao
exercício de suas atividades rotineiras de diversas naturezas.
Kaye (1992, p. 2, tradução nossa) apresenta uma definição etimológica de
colaboração, segundo a qual esse termo “significa trabalhar junto, o que implica o conceito de
objetivos compartilhados, e uma intenção explícita de somar valor – criar valor a alguma
coisa nova ou diferente através da colaboração, se opondo a passar uma simples troca de
informação ou passar instrução”.
A concepção de Kaye (1992) evidencia a colaboração como uma atividade relacional,
ou seja, envolve mais de um indivíduo protagonizando o exercício do trabalho colaborativo.
Essa relação se cristaliza na troca de conteúdo que acontece entre esses sujeitos, conferindo
características específicas e únicas durante o processo. Para que a colaboração se efetive, os
sujeitos sociais necessitam manter interações constantemente com o intuito de discutir as
atividades a serem realizadas, intercambiando as ideias que, por ventura, possam surgir dessas
interações. Logo, é possível identificar que o pensamento de Kaye (1999) é semelhante às
exposições feitas por Mezura-godoy e Talbot (2001) sobre a colaboração.
A produção colaborativa nos permite compreender que se trata de um processo
recíproco no qual as pessoas intercambiam informação e conhecimento voluntariamente, sem
a regência aparente de autoridades, seja física ou jurídica. Na colaboração, o modelo de
comunicação que impera é o horizontal, descentralizado, cuja valorização consiste na
autonomia do indivíduo, na diversidade de discursos, nos pontos de vista divergentes e na
agregação de valor ao todo. No que se refere à descentralização, é pertinente acentuar que, ao
possibilitar que qualquer cidadão se torne produtor de conteúdo, principalmente conteúdo
digital, a produção colaborativa também pode ser considerada uma das molas propulsoras do
fluxo informacional que circula atualmente no ciberespaço porque descentraliza a produção e
a disseminação das informações dos grandes conglomerados midiáticos.
Além de considerarmos que o ponto chave do trabalho colaborativo corresponde à
reciprocidade, tanto da relação social quanto das metas a serem produzidas, devemos observar
também os cinco objetivos comuns elencados por Chesterman (2001), que, ao se articularem,
são capazes de providenciar o bom desenvolvimento de um trabalho colaborativo, quais
sejam: a finalidade comum, o compromisso, a transparência, a comunicação e a
potencialidade. As partes envolvidas produzem melhor e com mais engajamento quando
visam a alcançar um mesmo objetivo (finalidade comum). Ao assumir um compromisso
inerente a todos, os riscos e as recompensas reforçam a sua união (compromisso). A atividade
exercida por cada pessoa na produção colaborativa deve ser de conhecimento dos demais
(transparência). A comunicação entre os envolvidos é um pré-requisito indispensável, pois a
comunicação deve manter todos integrados e cientes das atividades executadas pelos seus
pares (comunicação). Além dessas considerações, é preciso que cada colaborador tenha seu
potencial buscado e valorizado pelo grupo (potencialidades).
Outro ponto em que a colaboração se faz presente é no conhecimento, especialmente
na evolução. Nesse quesito, o progresso deste é um fator dependente do trabalho exercido
coletivamente, ou seja, colaborativo. É através da colaboração que se intercambiam saberes,
opiniões e ideias, que, agindo em sinergia, acabam enriquecendo o conhecimento anterior e
brotando um novo conhecimento. Este, que outrora era individual, passa a ser um
conhecimento coletivo, considerado infinitamente superior à soma dos conhecimentos
individuais e anteriores, favorecendo, então, todos os envolvidos. Na colaboração,
todos os indivíduos devem participar, pois cada um possui modelos mentais,
experiências, insights únicos que podem enriquecer “o todo”. A colaboração, por si
só, baseia-se no construto coletivo para a formação do produto final a partir de
mudanças de valores entre o público e o privado [...] (SCHONS, 2008, p. 82, grifo
do autor).
Por isso, o resultado final passa a ser direcionado para o bem comum da coletividade.
Se, por um lado, as formas de produção colaborativa são vistas com bons olhos pelos
usuários, dada a valorização de suas contribuições, o mesmo não acontece com alguns
teóricos, que realizam críticas ferrenhas a esse “novo” modo de produção de conteúdo, que
coloca em um mesmo patamar de igualdade os conteúdos e as informações produzidas por
especialistas e não especialistas. Quanto a essa questão, Keen (2009) direciona crítica à
colaboração, compreendendo que apenas os especialistas são capazes de salvaguardar os
saberes e as informações, assim como a manutenção das instituições, livrando esses aspectos
das garras dos amadores.
Em relação à comunicação mediada por computador, Fragoso (2009) apresenta um
discurso reticente quanto a essa prática por achar que essa modalidade de comunicação
estimula o que há de mais nefasto na natureza humana. A autora enxerga um lado obscuro
desse ambiente virtual, compreendendo que o “ciberespaço é o reino da mentira, hipocrisia e
das más intenções” (FRAGOSO, 2009, p. 12). As formas de produção livre e aberta, que são
pilares do processo de colaboração no ciberespaço, podem acabar se tornando um espaço para
a manifestação dessas considerações apontadas pela autora.
Jenkins (2008, p. 55) chama a atenção para o que deve fazer parte desse processo de
produção colaborativa e compartilhamento, uma vez que é preciso “realizar atento escrutínio
de qualquer informação que fará parte do seu conhecimento, já que informações errôneas
podem levar a concepções mais errôneas, pois cada novo entendimento é interpretado à luz do
que o grupo acredita ser o conhecimento essencial”. Essa consideração do autor nos faz
lembrar que o sucesso ou o fracasso do trabalho colaborativo depende, especialmente, do grau
de ética, responsabilidade e compromisso por parte dos colaboradores, que devem avaliar bem
que tipo de informação está sendo compartilhada com seus pares, sobretudo, no que tange ao
critério de veracidade, pois uma informação desse tipo passada adiante pode ocasionar erros e
incoerências sucessivas.
As explanações desses autores nos permitem observar que o entendimento sobre a
produção colaborativa divide a opinião dos pesquisadores em duas vertentes divergentes: a
pessimista e a otimista. A primeira se mostra cautelosa a essa prática de construção de
informação e saberes que ocorre no ciberespaço, por entender que as informações vindas dos
mais variados lugares através de especialistas e amadores podem comprometer o teor e o
conteúdo dessas informações. A segunda perspectiva, por sua vez, compreende que as
informações surgidas, mantidas, circuladas, difundidas e compartilhadas de forma coletiva e
colaborativa podem trazer abordagens diferentes, agregando ainda mais valor e conteúdo às
primeiras informações.
3.1 Trabalho Imaterial: a Essência da Produção Colaborativa
As tecnologias intelectuais e interativas, como o ciberespaço, viabilizam as relações
sociais e as relações de produção colaborativa que se originam e se desenvolvem nesses
espaços, promovendo a circulação, a produção de informação e de conhecimento, e o
processamento de informação e de símbolos. Em outras palavras, a produção colaborativa
implica na realização do trabalho imaterial.
O período pós-industrial imprimiu a expansão de bens de consumo imaterial, cuja
maior finalidade passa longe de ser o intercâmbio monetário, que ainda hoje sustenta o
sistema capitalista. Atualmente, a sociedade contemporânea comercializa os bens de origem
imaterial e, paralelamente a esse sistema, existe uma corrente que vai de encontro a essa
concepção mercadológica e se organiza autonomamente, produzindo, compartilhando e
disseminando bens imateriais de forma voluntária. Trata-se de um trabalho imaterial que
fomenta a produção de bens imateriais, normalmente, gerados por meio da colaboração.
As primeiras impressões acerca do trabalho imaterial começaram a ser desenvolvidas
ainda na década de 1990 por Lazzaroto e Negri (2001). Os pesquisadores relatam que o
desenvolvimento da sociedade pós-industrial está na concepção de transposição da força de
trabalho físico para o trabalho imaterial, depreendido como “intelectualidade de massa”. Esse
novo tipo de trabalho é capaz de emancipar e transformar o sujeito socialmente e
politicamente hegemônico.
Por definição de Hardt e Negri (2003), o trabalho imaterial é aquele que produz um
bem imaterial, geralmente uma informação, um serviço, um produto cultural, podendo ser
entendido sob duas perspectivas diferentes. A primeira diz respeito ao entendimento de que o
trabalho imaterial é primordialmente de cunho intelectual ou linguístico, envolvendo a
solução de problemas, as tarefas simbólicas e analíticas, e as expressões linguísticas. A
produção de bens imateriais originam produtos que são ideias, símbolos, códigos, textos,
formas linguísticas, imagens e outros produtos similares. A segunda forma de trabalho
imaterial é conhecida como trabalho imaterial “afetivo”, por produzir ou manipular afetos
como sensação de bem-estar, tranquilidade, satisfação, excitação ou paixão. Trata-se de
provocar percepções que proporcionem alguma forma de prazer, nem que seja momentâneo.
Os resultados do trabalho imaterial são frutos originários das relações sociais e das
trocas simbólicas que os indivíduos mantêm com seus pares. Tais relações são capazes de
expandir significativamente o campo do compartilhamento. As formas de trabalho imaterial
se tornam interdependentes das redes comunicativas e colaborativas compartilhadas, (re)
produzindo novas redes de relações intelectuais, afetivas e sociais, originando bens imateriais.
A grande quantidade de ferramentas que estão disponíveis no ciberespaço para a
colaboração dos usuários oportunizou que o exercício do trabalho imaterial pudesse ser
desenvolvido por intermédio de dois modelos diferentes.
3.2 Modelos de Colaboração
Preliminarmente, precisamos compreender que o processo de produção colaborativa
acontece com força e intensidade diferentes em projetos específicos. Haythornthwaite (2009)
denomina a colaboração como peer production e envolve dois modelos distintos: o peer
production leve (PPL) e o peer production pesado (PPP).
O PPL é descrito como um modelo leve e simples, que dispensa aprendizado
específico e qualificado por parte dos seus colaboradores. O modelo leve é baseado em um
grande contingente de colaboradores que têm suas atividades e o conhecimento do que fazer
deliberado pelos donos do empreendimento. Essa subserviência aos proprietários otimiza o
tempo dos colaboradores por dispensar tempo e preparação para colaborar. Dessa forma, os
colaboradores do PPL têm a capacidade de iniciar rapidamente suas tarefas no trabalho
colaborativo.
O objetivo principal do modelo leve consiste em mobilizar o maior número de pessoas
para trabalhar com contribuições independentes e suficientemente capazes de aliviar as
demandas da coordenação dos projetos. Para Haythornthwaite (2009), a motivação em
participar de projeto do tipo leve advém do possível reconhecimento dos esforços e
desempenhos individuais ou até mesmo pela ideia de contribuir com um modelo livre e aberto
de colaboração, estimulando e sustentando a colaboração em PPL.
Outra característica desse modelo de produção é a falta de incentivo às relações sociais
entre os membros colaboradores, porque o foco principal é a realização de tarefas isoladas
para o fortalecimento do todo. No modelo leve, os colaboradores possuem total liberdade para
entrar e sair do projeto a hora em que bem entenderem. O tipo de produção colaborativa leve
possibilita que os colaboradores exerçam funções diferentes ao longo do projeto.
O exemplo do PPL mais conhecido é o SETI@ home (http://setiathome.berkeley.edu/).
Trata-se de um projeto que utiliza todo o tempo ocioso do computador de seus colaboradores
para procurar sinais de rádio que possam indicar a existência de vida extraterrestre. Para
participar dessa empreitada, o colaborador deve executar o download do programa BOINC e
prover o acesso a seu computador pessoal para uso pelo SETI. Este, por sua vez, fornece
informações acerca do projeto, mural de avisos, perfis para os usuários e estatísticas de uso. O
reconhecimento do engajamento dos participantes no projeto se dá pelo fornecimento de
resumos estatísticos das contribuições de tempo de computação denominado de “créditos”. É
possível ainda que os colaboradores envolvidos visualizem os dados totais e recentes ganhos
em comparação com os demais contribuintes (HAYTHORNTHWAITE, 2009).
Um segundo modelo de colaboração leve relatado por Haythornthwaite (2009) e que
serve de amostra é o do site do Mozilla, que incentiva o registro das ocorrências de erros nos
programas (bugs), tanto por pessoas com maior índice de especialização quanto por aqueles
de menor especialização (http://www.mozilla.org/contribute/). Os participantes que possuem
maior técnica são estimulados a fazer uso do software mais recente, seguindo as diretrizes
impostas pelo navegador para enviar os relatórios de erros (http://www.mozilla.org/bugs/bug-
reporting.html).
Os exemplos de modelos colaborativos do tipo leve têm como ponto em comum a
especificidade, a clareza e a definição das regras fundamentadas em uma hierarquia na qual os
colaboradores são inferiores às autoridades. Vale ressaltar ainda que projetos leves podem ser
modificados e encerrados a qualquer momento, desde que seja da vontade do proprietário.
De acordo com Haythornthwaite (2009), o modelo PPP é completamente oposto ao
modelo leve, a começar pela valorização dos pares e pelo compromisso com a manutenção e
com a sustentação do projeto, uma vez que sua dinâmica é similar à das comunidades virtuais.
O peso desse modelo reflete na configuração de uma esfera que abarca a totalidade do
indivíduo, perpassando pelo produto a ser colaborado, pelos processos internos, pela
experiência social e emocional que envolve toda a comunidade e a permanência dela.
Uma diferença importante é que o modelo pesado depende das constantes e
significativas colaborações, do tempo e da energia de seus contribuintes para se definirem e
manterem as regras de operação. O envolvimento de todos da comunidade requer a
construção coletiva e colaborativa do produto e das estruturas e regras internas de
funcionalidade. O conhecimento das regras de interação, conversação e participação é muito
importante para realçar a adesão, enquanto a ausência desses fatores implica na
estigmatização do colaborador como um iniciante ou até mesmo aprendiz. Haythornthwaite
(2009) afirma que o empenho dos colaboradores faz com que o projeto cresça e se consolide
frente às mudanças que vão surgindo no decorrer de suas atividades.
Enquanto, no modelo leve, o reconhecimento está focado na quantidade, no PPP, o
reconhecimento está ligado à junção da qualidade (peer-rated) com a quantidade e à avaliação
dos demais colaboradores quanto à conduta pessoal, sua relação com os demais
colaboradores, sua disponibilidade em relação ao projeto e à capacidade de apoio aos seus
esforços particulares na defesa dos objetivos comuns a todos os envolvidos
(HAYTHORNTHWAITE, 2009).
No que se refere ao modelo pesado, Haythornthwaite (2009) cita como exemplos a
comunidade acadêmica e os “colégios invisíveis”, que evidenciam o foco intradisciplinar das
práticas e dos processos de revisão pelos indivíduos que formam as comunidades de
interesses mantidas pelos laços fortes. A autora assegura que a universidade é o melhor
exemplo de colaboração do modelo pesado por dois motivos principais. O primeiro deles diz
respeito aos colaboradores acadêmicos estarem sempre motivados pelo princípio de abertura,
sobretudo, das ideias da ciência aberta. O segundo é resultado da Internet, que incentivou a
descoberta de novas formas de se alcançar o ideal de ciência aberta com o reconhecimento do
trabalho desenvolvido individualmente. O desenvolvimento de repositórios institucionais,
publicações abertas em blogs, websites e afins impulsionaram esse movimento de acesso
aberto/ciência aberta, segundo Haythornthwaite (2009). A autora esclarece que ainda é
possível identificar projetos colaborativos híbridos, que conservam as características tanto do
PPL quanto do PPP.
3.3 Política de Informação para Produção de Conteúdo no Ciberespaço
A cibercultura inaugura um novo regime de informação, mais do que uma forma de
produzir e compartilhar conteúdos, informação e conhecimento. Nessa perspectiva, a
produção colaborativa se mostra para além das tecnologias que as envolvem, na medida em
que, na sua base, se encontra um conjunto de diretrizes e políticas que possibilitam o
planejamento, a implementação e a gestão dessa nova forma de produção e compartilhamento,
centrados na colaboração.
Com base em Frohmann (1995), o regime de informação pode ser entendido como um
sistema ou rede na qual o fluxo de informação tem a capacidade de circular pelos seus canais
de informação, como, por exemplo, dos produtores de informação específicos através de
estruturas específicas para usuários também específicos. González de Gomez (2002, p. 34)
tem essa mesma visão ao afirmar que o regime de informação é
[...] um conjunto mais ou menos estável de redes sociocomunicacionais formais e
informais nas quais informações podem ser geradas, organizadas e transferidas de
diferentes produtores, através de muitos e diversos meios, canais e organizações, a
diferentes destinatários ou receptores, sejam estes usuários específicos ou públicos
amplos. [...] assim, está configurado, em cada caso, por plexos de relações plurais e
diversas: intermediárias; interorganizacionais e intersectais [...] para nós, [um regime
de informação] estaria constituído pela figura combinatória de uma relação de
forças, definindo uma direção e arranjo de mediações comunicacionais e
informacionais dentro de um domínio funcional (saúde, educação, previdência, etc.),
territorial (município, região, grupo de países) ou de sua combinação.
Como podemos notar, três elementos principais configuram como as partes
constituintes de um regime de informação: dispositivo, atores sociais e artefatos. O
dispositivo é o meio físico, também visto como a tecnologia da informação e da comunicação;
os atores sociais são os sujeitos produtores e receptores do conteúdo informacional que circula
entre os canais; e o artefato é o canal no qual se dá a comunicação da informação. Trazendo
isso para o cenário atual da cibercultura, o dispositivo é a Internet, os atores sociais são os
usuários, tanto os emissores quanto os receptores de conteúdo, e o artefato pode ser
considerado como os endereços indexados na web (portais de notícia, blogs, bibliotecas
digitais, etc.).
Na Sociedade da Informação, Unger (2006) considera que o regime de informação
precisa ser pensado à luz da conectividade, relacionada à infraestrutura tecnológica e às
políticas de informação, por estas serem capazes de regular e promover a produção da
informação. Nesse sentido, vemos que os debates em torno das políticas de informação é uma
constante que se faz presente desde o período pós-Segunda Guerra, época em que a temática
ganhou espaço dentro da Ciência da Informação. Porém, o ato de regular e promover na área
de produção da informação tem tido pouca representatividade na abordagem das políticas de
informação, como veremos adiante.
A preocupação com a inserção dos sujeitos na Sociedade da Informação e a explosão
das tecnologias de informação e comunicação imprimiu um novo ritmo de debates e acentuou
as discussões sobre as políticas de informação. Foi então que as políticas de informação
emergentes passaram a dar ênfase ao acesso à infraestutura tecnológica como forma de
preconizar a entrada desses indivíduos na Sociedade da Informação (JARDIM; SILVA;
NHARRELUGA, 2009).
A nosso ver, as políticas de informação devem transpor essa concepção de acesso ao
meio tecnológico físico para chegar à Sociedade da Informação, principalmente no que diz
respeito à cibercultura. Nesse contexto específico, as políticas de informação também
precisam abarcar as considerações de Braman (2006), que as apreende como a legislação e o
regulamento que se relacionam com qualquer nível da produção, criação, processamento
(cognitivo e algorítmico), armazenamento, transporte, distribuição, uso e até destruição da
informação. Obviamente, o acesso à infraestrutura tecnológica é uma sine qua non para o
desenvolvimento na produção da informação a que a autora se refere.
Tomando como ponto de partida o discurso de Horton Jr, Branco (2005) interpreta que
as políticas de informação podem ter duas finalidades discrepantes: a básica e a específica. A
política de informação do tipo básica é aquela que se relaciona aos aspectos que envolvem a
produção da informação em seu mais amplo sentido, estando ligada à tecnologia da
informação, às telecomunicações e à política internacional. Assim, ela tem como pressuposto
as ações em nível macro. Em contrapartida, a política de informação específica, como o
próprio nome sugere, tem um caráter mais específico e particular na sua implementação.
Portanto, ela tem como objetivo propor ações e soluções de acordo com as especificidades de
cada setor, conforme suas necessidades e prioridades.
Analisando a literatura sobre as políticas de informação no Brasil, é possível perceber
que esta se encontra majoritariamente fundamentada no tipo básico. O cerne das discussões
gira em torno da elaboração de políticas de informação voltadas para a ciência e tecnologia.
Valentim (2002) constata que as políticas de informação estão massivamente centradas no
acesso à infraestrutura de telemática, aos hardwares e aos softwares computacionais. A autora
observa que, sem essas condições, é inviável a inclusão das pessoas na Sociedade da
Informação. Para a autora, porém, a informação em si é o que deve estar em foco.
Amaral (1991) parece concordar com a constatação de Valentim (2002) ao justificar
que a Política Nacional de Informação no Brasil está mesmo ligada à política científica e
tecnológica pelo fato de as instituições governamentais depositarem nas universidades, nos
centros de pesquisa e nos institutos de pesquisa a responsabilidade em instaurar os avanços
progressivos mais expressivos na sociedade brasileira, capazes também de transformar as
estruturas vigentes.
Todo esse cenário da política de informação do Estado brasileiro é bastante similar aos
países da Europa, sobretudo da França. Analisando as políticas de informação de Paris, Aun
(1999) constatou que há uma preocupação em estabelecer uma rede informacional
interconectada através do acesso às tecnologias da informação e da comunicação. Por outro
lado, os parisienses começaram a despertar o interesse em discutir uma política de informação
capaz de abranger a questão do conteúdo na Sociedade da Informação por apreenderem que a
produção de conteúdo informacional pela sociedade civil é tão importante quanto o acesso à
infraestrutura tecnológica. Endossamos que de nada irá adiantar o acesso à tecnologia se o
usuário não souber usá-la a seu favor, produzindo suas próprias informações.
Trazendo essas considerações para o Brasil, a academia se mostra intrigada com
produção de conteúdo. Em seu discurso, Freire (2008) sugere que as políticas de informação
visem sim à inclusão social e digital, mas também passem a incorporar a produção de
conteúdo digital para que a sociedade tenha acesso livre e pleno à Internet, da mesma forma
que seja capaz de produzir seu próprio conteúdo de maneira independente e autônoma,
suprindo suas próprias necessidades informacionais.
Mediante essas considerações, vemos que a cibercultura conclama um regime de
informação que contemple a sua dinâmica de interconectividade e produção de conteúdo.
Nesse sentido, a política de informação deve ser o mais flexível possível para que atenda às
demandas e evoluções corriqueiras que se dão no ciberespaço. Para que isso aconteça, é
preciso pensar em uma política de informação que forneça os subsídios essenciais para a
produção de conteúdo, incentivando ainda mais a produção todos-todos, que é uma marca do
ciberespaço e que o diferencia dos demais regimes de informação.
De acordo com Braman (2011), as políticas de informação devem incluir entidades
representativas do poder público e privado, voltando seus olhares para questões de cunho
formais e informais. A autora enfatiza ainda que, na tomada das decisões que envolvem esse
processo, é importante a compreensão dos fatores que transformam o mundo em que
habitamos, pois as políticas de informação envolvem temáticas de interesse público e
agenciam o exercício em nossas vidas como indivíduos e comunidades.
3.4 O Copyleft e o Software Livre na Web Interativa
É notório que a dinâmica do ciberespaço está alicerçada na inteligência coletiva, na
qual o poder intelectivo dos seus usuários é cada vez mais valorizado. Essa dinâmica de
produção, alteração de obras criativas, disseminação e compartilhamento das informações
online, faz surgir a cultura copyleft, entendida como oposta à cultura copyright, em que a obra
deve permanecer com seu conteúdo inalterado. Na rede mundial de computadores, o copyleft
confere mais liberdade aos seus usuários, trilhando o caminho de uma cultura personalizada,
criativa e aberta a todos os internautas unidos pela dimensão planetária do ciberespaço.
Em busca de uma abordagem mais consistente acerca do copyleft, recorremos a Lemos
(2004), que o define como processos de modificação em obras de cunho artístico, cultural e
intelectual, na qual outros usuários também podem dar sua colaboração com novas alterações,
deixando essas obras abertas para que novas inserções ou modificações de conteúdo possam
ser realizadas sucessivamente. É interessante notar que Fonseca (2004) corrobora com a
definição de Lemos (2004) e ressalta que o grande diferencial consiste na livre reprodução e
na alteração, assim como na distribuição sem fins lucrativos. Dessa forma, as licenças
criativas do copyleft são constituídas de dois pilares fundamentais: a permissão de alterações
gradativamente, sem a exigência de direitos autorais, e a concessão para que alterações
subsequentes sejam realizadas através dessa mesma licença.
Os usuários-internautas do copyleft possuem quatro nítidos objetivos que os levam a
fazer parte desse sistema de colaboração e compartilhamento online:
a) proteger os direitos do seu trabalho enquanto o disseminam amplamente;
b) proteger contra a restrição do acesso ao trabalho, contra a sua vontade e além do
que considera necessário como recompensa;
c) assegurar que seus trabalhos não serão vulneráveis a ações legais e ruinosas; e
d) criar ambientes de cultura livre, onde seus trabalhos tenham a liberdade de
circulação e possam ser construídos de forma aberta (LIMA; SANTINI, 2008, p.
98).
O termo copyleft foi cunhado na década de 1980 por Richard Stallman, pesquisador da
Universidade de Harvard e do Massachusetts Institute of Technology (MIT), quando lançou
um manifesto propondo o compartilhamento e a cooperação no desenvolvimento de
softwares. Decidido a popularizar o copyleft através do compartilhamento de softwares livres,
Stallman saiu do MIT e encabeçou a campanha “GNU is not Unix” (GNU não é Unix). Em
1985, inaugurou a Free Software Foundation (FSF), com o objetivo de criar um software tão
eficiente e completo quanto o Unix, para que fosse distribuído e modificado gradativamente
pelos usuários, sem impedimentos legais quanto à execução dessas tarefas. Essa iniciativa de
Stallman impulsionou a popularização dos softwares de código-fonte aberto ou softwares
livres, como são mais conhecidos.
O site do GNU (2003) explica que os softwares livres são programas computacionais
que concedem mais liberdade aos seus usuários para que eles continuem copiando,
distribuindo, estudando, melhorando e modificando os softwares, dando continuidade à
proposta inicial de Stallman. Essa liberdade a que se refere o projeto GNU é segmentada em
quatro níveis:
Liberdade nº. 0: liberdade para que o usuário usufrua do programa para qualquer
propósito;
Liberdade nº. 1: liberdade para que o usuário estude a fundo o programa e entenda as
suas funcionalidades para que possa adaptá-las às suas necessidades. Para isso, o
acesso ao código-fonte é um pré-requisito para este fim;
Liberdade nº. 2: liberdade para distribuir cópias, de modo que o seu próximo também
possa ser ajudado; e
Liberdade nº. 3: liberdade para aprimorar o programa, liberando seus
aperfeiçoamentos para que toda a comunidade se beneficie deles. Neste nível, o acesso
ao código-fonte é uma das prerrogativas.
Toda essa esfera colaborativa construída pelo software livre apresenta vantagens que
vão desde a própria liberdade do usuário em alterar o programa até vantagens econômicas.
Analisando os pontos positivos dos softwares livres, Hexsel (2002) elenca nove vantagens e
motivos para o uso e a adoção desses programas computacionais, como o custo social baixo, a
independência da tecnologia proprietária, a independência do fornecedor único, o desembolso
inicial próximo de zero, a não obsolescência do hardware, a robustez e segurança, a
possibilidade de adequar aplicativos e segurança, o suporte abundante e gratuito, e os sistemas
e aplicativos geralmente muito configuráveis.
Cada uma dessas vantagens apresenta características próprias, mas que possibilita uma
integração nas definições da base cooperativa de produção e compartilhamento de
informação. Se comparado aos programas de computador privados que direcionam seus
lucros para um grupo restrito de empresários, os softwares livres são considerados bens
públicos, por ter como foco central o benefício de seus usuários. Por isso, o custo social com
o uso, a evolução e a atualização se torna bastante irrisório porque depende única e
exclusivamente da mobilização dos seus usuários para sua melhoria, representando um custo
social ínfimo.
A independência da tecnologia proprietária está intimamente relacionada à submissão
dos indivíduos aos softwares da licença copyrigth, que dependem da atualização e da
manipulação dos seus proprietários para adquirirem uma versão mais atualizada para darem
sequência às suas atividades rotineiras. Essa nova adoção, evidentemente, demanda recursos
financeiros para a continuidade de tarefas específicas. Com o uso dos softwares livres, todos
esses problemas são extintos.
O software livre independe dos direitos de propriedade sobre o código fonte dos
programas computacionais, resultando, por conseguinte, na independência de fornecedor.
Dessa forma, há impossibilidades de descontinuidade e de dependência do distribuidor para o
uso continuado desses programas, pois o código fonte é aberto, ou seja, está acessível e
visível a todos os usuários.
A manutenção desses sistemas pode ser feito voluntariamente pelos usuários, sem um
custo prévio para a sua realização, levando ao desembolso inicial próximo de zero. Os
softwares livres se adaptam com mais facilidade aos hardwares que possuem modelos
tecnológicos mais avançados, o que resulta na não obsolescência do hardware. O bom
funcionamento dele independe da alta tecnologia de um hardware específico.
A robustez e a segurança são consideradas, por sua vez, as características que
conferem maior qualidade aos softwares livres porque estes são testados por vários
programadores antes da sua distribuição e do seu compartilhamento junto ao público. Isso
implica dizer que, quando os programas chegam aos usuários, foram testados, aprovados e
comprovados por várias pessoas.
No que se refere à possibilidade de adaptação a aplicativos, o usuário tem condições
de promover adaptações específicas de acordo com as suas prioridades. O suporte é
abundante e gratuito, pois toda a comunidade pode prestar serviços de apoio e melhoramento
sem fins lucrativos.
Por último, os sistemas e aplicativos configuráveis permitem que, a partir das
correções e adaptações solicitadas pelos usuários, surjam sistemas cada vez mais evoluídos
tecnologicamente, possibilitando, inclusive, várias configurações em um mesmo sistema.
Ciente dessas vantagens advindas com o uso dos softwares livres, o Governo
Brasileiro se posicionou publicamente favorável à adoção dos programas computacionais de
código aberto dentro dos órgãos públicos federais. A repercussão dessa informação soou
positivamente na imprensa internacional, a ponto de o Brasil ser nomeado em 2004 pela
revista de tecnologia Wired como a “Nação Open Source” (LIMA; SANTINI, 2008).
Além da economia com o uso dos softwares livres, o governo brasileiro almeja
aumentar o desenvolvimento e a produção na área ligada à tecnologia de informação, tendo
em vista que o aperfeiçoamento desses tipos de softwares trará visibilidade, crescimento e
independência tecnológica para o país. A segurança da informação também é um dos
requisitos importantes porque, a partir da evolução dos programas computacionais, fica cada
vez mais difícil a invasão dos hackers aos conteúdos confidenciais do Estado.
A maior dificuldade na implementação efetiva desses programas computacionais na
esfera pública federal incide na mudança de comportamento por parte dos próprios
funcionários, habituados a lidar cotidianamente com o exercício das suas atividades em
plataformas de softwares privativos. A resistência a essa mudança de paradigma dificulta o
andamento dos pilares do Programa Brasileiro de Inclusão Digital (PBID): investimento em
telecentros (espaços com computadores conectados à Internet, disponibilizando acesso à
população), gestão comunitária dos telecentros e uso dos softwares livres. Segundo informa a
Agência Brasil (2004), o uso dos softwares livres é o elemento central do programa que levará
o país a ter autonomia na área da tecnologia da informação.
Em 29 de outubro de 2003, foi publicado o Decreto que instituiu comitês técnicos
subordinados ao Comitê Executivo do Governo Eletrônico, entre eles o Comitê de
Implementação do Software Livre (CISL) (BRASIL, 2003). Na tentativa de mensurar os
dados de adoção dos órgãos públicos dos softwares livres, o CISL realizou uma pesquisa em
2010 para identificar a migração dos seguintes aspectos: sistemas de correio eletrônico,
servidores de Internet, sistemas de informação, estações de trabalho e suítes de escritório. As
instituições foram classificadas de acordo com os níveis de implementação de Software Livre.
Até maio de 2010, os dados colhidos pelo CISL do Governo Federal obtiveram
resposta de 130 órgãos da administração pública federal que responderam à pesquisa
encaminhada por esse Comitê. A análise desses dados iniciais permitiu entender que o uso do
correio eletrônico se faz presente em 54% dos órgãos que participaram da pesquisa e que 56%
das instituições utilizam significativamente o software livre em seus servidores para exercer
as atividades técnico-administrativas do órgão. A quantia de 48% afirmou que implementou o
software em sistemas de informação, enquanto 13% dos entrevistados o aplicam em suítes de
escritório. Apenas 5%dos órgãos afirmaram usar o software livre em estações de trabalho.
Os dados colhidos na pesquisa do CISL nos permitem fazer duas aferições: a primeira
é que, à época da pesquisa, nem mesmo o Ministério de Ciência e Tecnologia (MCT)
encontrava-se totalmente enquadrado nos parâmetros do PBID, embora estivesse adequando o
exercício das suas atividades ao manuseio dos softwares livres. A segunda é que duas
instituições paraibanas de ensino superior participaram da pesquisa: o Instituto Federal de
Tecnologia da Paraíba (IFPB) e a Universidade Federal da Campina Grande (UFCG).
Coincidentemente, essas duas instituições são reconhecidas nacional e internacionalmente
pela realização e pelo desenvolvimento de pesquisas de cunho tecnológico.
Ainda na esfera paraibana, o endereço do Software Livre no governo do Brasil destaca
o uso do software livre em 100% da Procuradoria Geral do Estado da Paraíba, desde o ano de
2007. Os softwares livres usados naquele órgão governamental são o Ubuntu Desktop,
Ubuntu Server, Apache 2, PHP (Hipertext Preprocessor), PostgreSOL, OpenDAP, SAMBA
(Server Message Block), Zope, Plone, Django, Torncat, BrOffice.org e o Firefox. Esses
programas computacionais são utilizados nos banco de dados, gerenciamento de conteúdo, do
inglês Content Management System (CMS), suíte de escritório, sistema operacional (desktop)
e sistema operacional (servidores). Estima-se que, com a adoção dos softwares livres, o
Estado tenha economizado a quantia aproximada de um milhão de reais.
A Universidade Federal do Acre (UFAC) também é citada por fazer uso do software
livre no ambiente acadêmico. A maioria dos programas usados por esta instituição coincide
com os programas da Procuradoria Geral do Estado da Paraíba.
Em fevereiro de 2012, o portal Olhar Digital noticiou a informação que o governo do
Distrito Federal (DF) publicou no seu Diário Oficial a adoção do software livre como política
de tecnologia da informação para os órgãos de administração distrital. A decisão privilegia a
manipulação dos softwares livres em detrimento aos privativos. Os órgãos que desacatarem a
medida terão de se pronunciar oficialmente e justificar a existência de softwares privados na
esfera pública distrital. A economia, o aprimoramento, o gerenciamento próprio da tecnologia
da informação e a transparência da administração pública perante os cidadãos são os motivos
que acarretaram a decisão do DF.
Ao observar a repercussão que gira em torno dos softwares livres no governo
brasileiro, Lima e Santini (2008) expõem que o sucesso na implementação dos softwares pode
ser percebido em iniciativas locais e específicas, muito mais do que na generalização. Os
autores dão como exemplo a execução dos projetos de inclusão que fundam telecentros,
disponibilizando o uso de softwares livres, tais quais os telecentros existentes na capital
paulista, que, em 2004, possuía meio milhão de usuários registrados em mais de 100
telecentros espalhados por toda a cidade. Programas governamentais como “Um computador
por aluno” e o “Programa computador para todos” se tornam mais viáveis para a malha
monetária do governo com o uso dos softwares livres.
Ao longo dos anos, os softwares livres angariaram um espaço bastante representativo
dentro do ciberespaço, popularizando-se e conquistando cada vez mais usuários. Dentre os
mais conhecidos, Costa e Paulino (2011) destacam o Mozilla Firefox (navegador), o 7 zip
(compactador de arquivos), o PDF Creator (Portable Document Format) (gerenciador de
documentos em PDF) e o Biblivre. Mesmo ficando de fora da lista das autoras, temos os
famosos sistemas wikis.
Antes de adentrarmos, com mais precisão nas características dos sistemas wikis,
precisamos compreender que nem todas as obras intelectuais do copyleft podem ser alteradas
indiscriminadamente pelos seus usuários. Algumas delas possuem licenças criativas que
determinam sob que circunstâncias seu material pode ser reproduzido e alterado.
3.4.1 Creative Commons: Licenças Criativas para o Copyleft
Os moldes de produção do trabalho imaterial colaborativo do Copyleft, juntamente
com a difusão dos softwares livres, impulsionaram o advento de licenças criativas flexíveis.
Arquitetadas pelo advogado americano Lawrence Lessig, elas surgiram em 2002, a partir do
desenvolvimento do projeto sem fins lucrativo intitulado Creative Commons, cujo objetivo
era conceder os direitos autorais restritivos para obras intelectuais em som, imagem, áudio,
vídeo e texto. O Creative Commons orienta os usuários sob quais circunstâncias e com que
critérios os autores permitem que suas produções intelectuais sejam utilizadas, alteradas e
compartilhadas com seus pares, de forma legal.
O Creative Commons quer desenvolver uma infraestrutura técnica e jurídica para
maximizar a criatividade, o compartilhamento e a inovação, principalmente no
ambiente digital.
Queremos permitir a efetivação do potencial total da Internet (a participação plena
na cultura e o acesso universal à pesquisa e à educação), apostando numa nova era
de desenvolvimento, crescimento e produtividade, baseada nos valores do
compartilhamento e da abertura. [...]
A infraestrutura que criamos consiste em um grupo de ferramentas e licenças sobre
direitos autorais, permitindo que o tradicional “todos os direitos reservados” seja
substituído por “alguns direitos reservados” ou, até mesmo, por “nenhum direito
reservado” (CREATIVE COMMONS, 2013, online, grifo do autor).
Araya e Vidotti (2009) atestam a efetividade desse sistema de licenciamento ao
destacarem que sete anos após o seu surgimento, em 2009, mais de 130milhões de obras no
mundo estavam licenciadas no Creative Commons, com mais de 50 países participando desse
projeto, dentre os quais temos Brasil, Japão e Finlândia, sendo o terceiro, segundo e primeiro
países, respectivamente, a aderirem a essas licenças.
Aos poucos, o Creative Commons alçou também a esfera governamental de países
como Brasil e Estados Unidos. Naquele, o MEC, a Rádiobrás/Agência Brasil e a Biblioteca
Digital do Superior Tribunal de Justiça (BDJur) constituem apenas alguns dos órgãos
governamentais que passaram a licenciar suas obras e conteúdos através das licenças
flexíveis. Nos Estados Unidos, o endereço oficial do presidente Barak Obama, o change.gov,
trabalha com a mesma licença (ARAYA; VIDOTTI, 2009).
Na atualidade, o Creative Commons conta com seis tipos de licenciamentos para obras
autorais, apresentados e descritos abaixo.
Atribuição (by): Essa licença tem como objetivo possibilitar livre distribuição,
remixagem, adaptação ou até produção de obras criativas derivadas, inclusive com finalidade
comercial, desde que seja creditada a versão original. A Atribuição (by) é a licença mais
liberal e menos restritiva quando comparada às demais, no que se refere ao uso e às ações que
os outros podem realizar a partir de sua obra original (CREATIVE COMMONS, 2013).
Atribuição Compartilhamento pela Mesma Licença (by sa): Esse tipo de licença
proporciona aos usuários remixar, adaptar e criar obras derivadas, mesmo que seja para fins
comerciais, desde que o crédito seja atribuído ao autor original e que essas mesmas obras
sejam licenciadas sob os mesmos critérios. Normalmente, esta licença é “comparada a
licenças de software livre. Todas as obras derivadas devem ser licenciadas sob os mesmos
termos desta. Dessa forma, as obras derivadas também poderão ser usadas para fins
comerciais” (CREATIVE COMMONS, 2013, online). Devemos perceber que a licença
criativa que aponta os pareceres para produção, edição e compartilhamento do conteúdo que
faz parte da Wikipédia, a Enciclopédia Livre está centrada nesse tipo de licenciamento. Assim
sendo, os conteúdos e as informações existentes nessa enciclopédia virtual também podem ser
reproduzidos para fins comerciais. Os colaboradores da Wikipédia, ao participarem desse
projeto, ficam cientes dessa situação ao serem informados que
O objetivo da Wikipédia é criar uma fonte de informação em formato enciclopédico
que esteja disponível livremente. A licença que usamos dá livre acesso aos nossos
conteúdos no mesmo sentido em que o software livre é livre. Ou seja, o conteúdo da
Wikipédia pode ser copiado, modificado e redistribuído desde que a nova versão
garanta as mesmas liberdades a terceiros e atribua crédito aos autores do artigo da
Wikipédia que foi usado (um link direto para esse artigo satisfaz as nossas
exigências de crédito aos autores). Os artigos da Wikipédia irão, portanto,
permanecer livres para sempre e podem ser usados por qualquer pessoa desde que
sejam satisfeitas algumas restrições, a maioria das quais serve para assegurar essa
liberdade (WIKIPÉDIA, 2013, online, grifo do autor).
Atribuição Não a Obras Derivadas (by nd): O licenciamento prevê a
redistribuição e o uso tanto para finalidades comerciais quanto não comerciais. Entretanto, a
obra criativa deve estar sem modificações e completa, além de constar os créditos do autor
original (CREATIVE COMMONS, 2013).
Atribuição Uso não Comercial (by-nc): A licença autoriza que terceiros remixem,
adaptem e criem obras derivadas sobre a obra original. Porém, o uso comercial é estritamente
proibido. “As novas obras devem conter menção ao autor nos créditos e também não podem
ser usadas com fins comerciais, porém as obras derivadas não precisam ser licenciadas sob os
mesmos termos desta licença” (CREATIVE COMMONS, 2013, online).
Atribuição Não Comercial – Compartilhamento pela Mesma Licença (by – nc –
as): Possibilita que outras pessoas remixem, adaptem e criem obras derivadas sobre a obra
original, sem fins comerciais, com menção ao autor original e desde que a nova obra seja
licenciada sob os mesmos critérios. Terceiros podem, ainda, realizar o download ou
redistribuir o produto da mesma maneira que na licença anterior, podendo também traduzir,
remixar e produzir novas histórias baseadas na versão original. Assim, como todas as novas
obras devem dispor da mesma licença, elas estão proibidas de serem comercializadas
(CREATIVE COMMONS, 2013).
Atribuição Uso não Comercial – Não a Obras Derivadas (by-nc-nd): Dentre
todas as seis licenças, essa é a mais restritiva de todas, pois só é permitida a redistribuição e o
compartilhamento com citação do autor. São proibidas as modificações e as distribuições para
fins comerciais. Por esses motivos, essa licença é comumente conhecida como “propaganda
grátis”, pelo fato de que as características originais da obra devem ser mantidas enquanto são
amplamente distribuídas (CREATIVE COMMONS, 2013).
A abrangência desses seis modelos de licenças criativas flexíveis possibilita que os
autores possam decidir que tipo de licença se adequa melhor à sua proposta de produção
coletiva e ao compartilhamento do trabalho imaterial. Por intermédio das licenças do Criative
Commons, os autores permitem que suas obras sejam amplamente divulgadas e recriadas no
ambiente virtual, garantindo o direito autoral.
4 OS SISTEMAS WIKIS: CARATERÍSTICAS E PRESSUPOSTOS
De origem havaiana, a terminologia wiki significa veloz, rápido, célere, e foi cunhada
por Ward Cunningham no ano de 1995. Desde então, os sistemas wikis se alastraram por toda
Internet, cada qual surgindo com suas particularidades, embora possuam a mesma interface de
navegação. O diferencial é o tamanho do espaço virtual reservado e o conteúdo a que cada um
deles se destina.
O sistema wiki é uma ferramenta bastante conhecida e usada pelos usuários do
ciberespaço. Esse sistema possibilita que os internautas realizem inserções e alterações de
conteúdo nas páginas online de forma colaborativa e coletiva, diferenciando-se de tantas
outras páginas existentes nesse meio. Os wikis são definidos como sites que podem ser
pesquisados, visualizados, alterados e editados diretamente por qualquer pessoa sem pedido
de autorização prévia (RUPLEY, 2003).
Na visão de Gomes (2006, p. 3), o sistema wiki detém uma característica bastante
peculiar e específica por estar centrado na filosofia da “possibilidade de liberdade e
heterogeneidade”, possui tamanha potencialidade de proporcionar aos seus usuários o livre
arbítrio de inserir qualquer conteúdo em seu endereço como também por consentir que eles
desfrutem de novas possibilidades textuais.
Além dessas características, Faquetti e Alves (2006, p. 5) elencam mais cinco
pressupostos básicos dos sistemas wikis:
a) Software livre de fácil instalação e compatível com as plataformas Linux e
Windows;
b) Permite discussão assíncrona;
c) Permite importação e exportação de textos e imagens facilitando a criação
automática de hipertexto e hiperlinks;
d) Não existe qualquer mecanismo de revisão preliminar à publicação, portanto a
responsabilidade pela qualidade das contribuições é de cada participante autorizado;
e) A autorização para contribuir no sistema pode ser programada pelo grupo gestor,
podendo ser ampla e irrestrita ou possuir algumas restrições como por exemplo,
estar cadastrado.
Ao estudar os sistemas wikis e as suas especificidades enquanto um código de fonte
aberto, Cunningham (2013) constatou oito princípios desse sistema, quais sejam:
aberto: essa característica é uma das mais elementares dos sistemas wikis, uma vez que
é ela que permite que o leitor/usuário/colaborador tenha livre acesso para inserir novos
conteúdos ou alterar os existentes na página;
incremental: permite que as páginas possuam links para direcionar os usuários para
outras páginas do próprio wiki e, inclusive, para páginas que ainda podem ser
redigidas, ou seja, páginas em branco;
orgânico: proporciona que a organização estrutural da página esteja sempre aberta para
a edição e, consequentemente, para a evolução;
universal: as ferramentas de edição e de organização devem, necessariamente, ser as
mesmas, consentindo que o escritor seja automaticamente um editor;
preciso: os nomes das páginas devem conter a maior precisão possível para evitar
conflitos e ambiguidades terminológicas;
tolerante: a conduta interpretativa é passível às mensagens de erros;
observável: as atividades exercidas no sistema podem ser visualizadas, observadas e
revisadas por todos os usuários que desejarem; e
convergente: a existência de páginas duplicadas ou semelhantes correm o risco de
serem redirecionadas ou excluídas.
As observações feitas por Faquetti e Alves (2006) e Cunningham (2013) convergem
para um mesmo ponto: as propriedades do sistema wiki o permitem ser compreendido como
um hipertexto colaborativo. Isso porque todos os usuários participam ativamente da
construção coletiva de textos, exercendo e invertendo as funções de escritor, leitor e
colaborador. Essa especificidade se dá através da necessidade de cessar a lacuna de
informação acerca de um determinado tema ou assunto. A partir da primeira inserção de
conteúdos, os indivíduos passam a se reunir virtualmente para redigir um texto com o maior
grau de precisão possível. As discussões que emergem nesses espaços abrem possibilidades
para a construção social do conhecimento, através do diálogo e do debate mediado por uma
tecnologia de informação digital de fácil manuseio.
Ao deliberar vez e voz aos usuários, os sistemas wikis se consolidam e se aproximam
ainda mais do que Bobbio (1989) denomina de comunidades democráticas, posto que sua
dinâmica é regida pela participação, colaboração, interação, e escrita conjunta e coletiva,
alicerçados em direitos mais maleáveis, abertos e igualitários. O sistema wiki pode também
ser considerado como uma tecnologia eficaz, capaz de manter a mesma relação de
reciprocidade das comunidades físicas nas comunidades virtuais existentes na rede mundial de
computadores.
Atualmente, as ferramentas wikis mais disseminadas, conhecidas e utilizadas são o
TkiWiki, o Twiki, o Pbwiki, o Wikka, o Wikispaces e o MediaWiki. Este último merece
destaque por ser o software que alicerça o nosso objeto de estudo, a Wikipédia, a
Enciclopédia Livre.
O MediaWiki conserva todas as características primordiais dos softwares livres, como
o GNU, e do sistema wiki: simplicidade e praticidade no manuseio dessa ferramenta, com o
objetivo de promover a participação coletiva dos usuários. Para que a adesão do usuário se
concretize, é imprescindível uma infraestrutura tecnológica e o gerenciamento das suas
configurações com baixo grau de complexidade em ambos os casos.
4.1 Wikipédia, a Enciclopédia Livre
Surgida em 15 de janeiro de 2001, a Wikipédia, a Enciclopédia Livre é uma
comunidade virtual que reúne milhares de usuários engajados em construir uma enciclopédia
online capaz de abranger todas as áreas do conhecimento. Em um primeiro momento, a
proposta de universalização do conhecimento dessa enciclopédia pode parecer inovadora,
mas, no século passado, essa ideia havia sido vislumbrada por Paul Otlet e Henry La
Fontaine.
Passarelli (2008) explica que no início do século XX, Paul Otlet se mostrava
preocupado com a grande quantidade de produção intelectual existente naquela época e com o
possível controle universal de toda essa riqueza intelectual. O primeiro passo dado pelo jovem
inovador foi a criação do sistema de Classificação Decimal Universal (CDU), inspirado na
Classificação Decimal de Melvil Dewey (CDD). Ainda em fins do século XIX, ele fundou,
com Henri La Fontaine, o Instituto Internacional de Bibliografia (IIB).
A empreitada de Otlet evoluiu gradativamente. Em sua visão, a produção do
conhecimento também deveria ser organizada fisicamente. Tentando realizar mais essa tarefa,
Otlet fundou. em 1910, o Mundaneum, um museu que tinha mais de 70 milhões de entradas
registradas em seu acervo. Esse mesmo projeto incluía a criação de uma enciclopédia
universal capaz de reunir todas as manifestações de informação e conhecimento existentes no
mundo, mediante a indexação de todo o acervo. Paralelamente, Otlet também almejava a
construção de uma cidade do intelecto (“city of the intellect”), que tinha como proposta ser
erguida nas imediações do Mundaneum para abrigar bibliotecas, museus e universidade em
um mesmo espaço físico. A cidade do intelecto chegou a ser projetada pelo renomado
arquiteto e urbanista Le Corbusier.
A proposta de Paul Otlet foi bem recebida pelo governo belga, que, em 1919, cedeu
150 salas do Palácio Cinquentenário para as instalações do Mundaneum. Entretanto, o projeto
durou pouco tempo e, após cinco anos, a “doação” das salas foi revogada, dispersando todo o
acervo existente. Em 1934, o Mundaneum foi completamente fechado. Atualmente, segundo
Passarelli (2008), o acervo do Mundaneum encontra-se sob a posse do governo francês com o
codinome de Mundaneum, Centre d’Archives de La Communauté Française. Esse espaço é
dedicado também a exposições temporárias e a visitas guiadas ao acervo original idealizado
por Otlet.
Devido a essas iniciativas ousadas, Passarelli (2008) considera Paul Otlet como o
“pai” da Documentação e da Internet. Segundo a autora, os empreendimentos de Otlet
influenciaram projetos importantes para o que temos hoje na word wide web. O memex de
Vannevar Bush é um deles. A autora credita ainda a Otlet o cargo de CEO (diretor executivo)
do Consortium da www.
A idealização de Paul Otlet em reunir todas as manifestações de informação e
conhecimento em um mesmo lugar ainda se faz presente na sociedade contemporânea. As
possibilidades proporcionadas pelo ciberespaço surgem com um espírito renovador e, ao
mesmo tempo, inovador dessa idealização. Nesse âmbito, a Wikipédia, a Enciclopédia Livre
emerge como uma proposta similar à de Paul Otlet de universalização da informação e do
conhecimento. A transposição do espaço físico, a quantidade de pessoas engajadas nesse
projeto colaborativo e a quantidade de conteúdos existentes nessa enciclopédia aparecem
como os pontos fortes.
Inicialmente, o projeto Wikipédia tinha como proposta ser uma enciclopédia
multidisciplinar, construída como aperfeiçoamento da Nupédia, uma enciclopédia livre, cuja
meta era ser escrita apenas por especialistas, com grau elevado de rigidez nos critérios de
avaliação. Criada pela Wikimedia Foundation1, a Enciclopédia Livre admite que as
atualizações sejam feitas pelos próprios usuários de forma inteiramente gratuita, enriquecendo
o conteúdo através da participação coletiva.
Logo em seu primeiro ano de existência e operando apenas em língua inglesa, a
Wikipédia possuía cerca de 10 mil artigos. No início de 2008, eram mais de oito milhões de
verbetes em 235 idiomas e dialetos diferentes (VIEIRA; CHRISTOFOLETTI, 2009). Em
2013, os números totais de artigos ultrapassam os 14 milhões e os idiomas somam 281no
total. Em língua portuguesa, a Wikipédia atingiu a quantia de mais 770 mil artigos publicados
no primeiro semestre. No segundo semestre de 2013, esse número ultrapassou a quantia de
800 mil. As enciclopédias em língua inglesa, alemã e holandesa conseguiram a marca de um
1 Uma organização sem fins lucrativos.
milhão de artigos e verbetes editados e publicados. Em espanhol, japonês, italiano e
polaco/polonês, ela excedeu a quantia de 500 mil publicações. Em catalão, chinês, finlandês,
sueco e vietnamita, a Enciclopédia Livre detém mais de 250 mil artigos (WIKIPÉDIA, 2013).
Ciente da grande quantidade de artigos existentes em sua página, a própria Wikipédia
(2013) traça um panorama comparativo entre as enciclopédias mais conhecidas e usadas no
mundo. A Enciclopédia Britânnica Concisa (inglês) possui 28 mil artigos, duas mil imagens e
10 mil pronúncias de palavras. A Enciclopédia Britânnica (impressa em inglês) contém 65
mil artigos, 44 milhões de palavras, 24 mil imagens e aproximadamente quatro mil
colaboradores, incluindo pessoas como Milton Friedman, Carl Sagan e Michael DeBakey. A
Microsoft Encarta 2002 (versão brasileira) tem aproximadamente 32 mil artigos e pouco mais
de 25 mil imagens. A Enciclopédia Larousse detém mais de 120 mil verbetes, com quase 15
mil sobre o Brasil. A Barsa (em português) tem na micropédia 46.800 artigos, enquanto na
macropédia 7.904 artigos aprofundados e mais de 11.500 imagens. A Datapédia (banco de
dados com informações diversas e atlas) conta com mais de 26 mil referências geográficas.
Perante esses dados numéricos, fica nítida a preeminência da Wikipédia frente às
demais enciclopédias acima citadas. Esses índices numéricos enfatizam a supremacia
quantitativa em artigos e verbetes, fruto também da quantidade de colaboradores. Nas demais
enciclopédias, a equipe de colaboradores é restrita e especializada, enquanto na “Wiki” é mais
numerosa e diversificada. Além disso, a colaboração dos usuários pode ser feita em qualquer
lugar do mundo e a qualquer hora, desde que se esteja devidamente apto a inserir o conteúdo
de maneira responsável. Em 2013, a Enciclopédia Livre inovou e mais uma vez passou a ter
uma versão adaptada para a tecnologia móvel.
Vieira e Christofoletti (2009) compreendem que o sucesso dessa enciclopédia perpassa
o suporte digital no qual está assentada, uma vez que existem tantas outras no mundo virtual.
Para eles, a explicação plausível para isso incide na participação, na colaboração e na edição
dos verbetes que podem ser feitas por qualquer usuário. Diferentemente das outras
enciclopédias, a Wikipédia valoriza os saberes de todos os usuários, sem fazer distinção de
nível e grau de escolaridade. Dessa maneira, a inteligência coletiva é o diferencial dessa
enciclopédia.
Ao passo em que vai conquistando espaço e reconhecimento entre os cidadãos, aos
poucos, a Wikipédia vai angariando espaço na produção bibliográfica nos ambientes de
aprendizagem.
No que concerne às publicações que se entrelaçam com as temáticas centrais da nossa
pesquisa, isto é, Wikipédia e confiabilidade das informações, destacamos o estudo de Ribeiro
e Gottschalg-Duque (2011), que realizaram uma análise comparativa entre a renomada
Enciclopédia Britânica e a Wikipédia, com o objetivo de identificar quais delas possuíam o
conteúdo mais confiável sobre Biblioteconomia em língua inglesa. Como referência para essa
avaliação, os autores elegeram o Online Dictionary of Library and Information Science
(ODLIS). O corpus de análise selecionado foi constituído de 14 verbetes da área. Ao final da
pesquisa, os autores constataram que a disparidade entre ambas é mínima e que o caráter
aberto da colaboração da “Wiki”, que prevê a participação de pessoas sem conhecimento
especializado, não comprometeu o resultado final dos artigos e verbetes.
Concomitantemente a esse fato, é possível entender que o nível de precisão e
qualidade da Enciclopédia Livre pode estar associado aos dados estatísticos colhidos na
investigação de Rosado (2007), que concluiu que 88,9% dos colaboradores são homens e com
faixa etária 16 e 40 anos de idade, representando 77,2%. A maioria dos usuários encontra-se
socialmente inseridos na classe média, representando 91,1%. O autor salienta ainda que a
maioria dos wikipedistas possui uma escolaridade a ser considerada, sendo que 21,6% tem
nível superior completo, enquanto 24,7% possui o superior incompleto. Em nível de pós-
graduação, 10,5% são detentores do título de especialista. Destacam-se também os editores
que estão no ensino médio, com 11,7%, e incompleto, com o mesmo percentual, 11,7%. Por
isso, o trabalho desempenhado pela comunidade é de fundamental importância para a
permanência da Wikipédia no ambiente virtual, e consequentemente, para o seu sucesso.
Johnson (2009) também explorou o universo dessa enciclopédia buscando
compreender e descrever os bastidores dos processos de interação e colaboração entre os
editores. Em suas análises, a autora chegou à conclusão que o principal motivo que leva os
wikipedistas a atuarem nesse projeto colaborativo é a finalidade em contribuir com a
universalização do conhecimento com seus pares de forma gratuita.
A academia começa a despertar o interesse em trabalhar em consonância com a
Enciclopédia Livre, com o objetivo de possibilitar a construção e a edição de artigos e
verbetes o mais confiáveis possível, tanto é que, no ano de 2012, o projeto “Wikipédia na
Universidade” convocou professores e estudantes do ensino superior a melhorarem os
conteúdos de suas páginas através da colaboração no próprio ambiente acadêmico. Física,
Química, História, Políticas Públicas e Ciências Sociais são as áreas mais requisitadas para
que as páginas relacionadas às disciplinas de política cultural, antiguidade clássica ou até
mesmo eletromagnetismo sejam revisadas pelos acadêmicos participantes desse projeto
(UNIVERSIA, 2012).
A meta maior dessa iniciativa foi encorajar a esfera acadêmica a fazer uso da
enciclopédia colaborativa mais visitada no ciberespaço como um instrumento de
aprendizagem em potencial. Por conseguinte, o objetivo foi capacitar os usuários para se
tornarem efetivamente wikipedistas através do desenvolvimento de habilidades e
competências para a produção colaborativa do conhecimento livre, de modo que possam
aumentar a qualidade da Wikipédia na língua portuguesa (UNIVERSIA, 2012).
Em sua fase de teste, esse projeto teve a adesão de admiráveis universidades
brasileiras, como Universidade de São Paulo (USP), Universidade Estadual Paulista Júlio de
Mesquita Filho (Unesp), Universidade Federal do Estado do Rio de Janeiro (UniRio) e
Universidade Federal do Rio de Janeiro (UFRJ). Além do Brasil, países como Egito, Rússia,
Índia, Reino Unido e Estados Unidos estão participando dessa iniciativa em suas
universidades para contribuir para a melhoria da Wikipédia em seus idiomas (UNIVERSIA,
2012).
Seguindo o tripé academia, Wikipédia e confiabilidade, Vieira (2008) desenvolveu
uma pesquisa que avaliava a aceitação e a confiabilidade da Enciclopédia Livre por parte de
professores e alunos da Universidade de Itajaí. Os resultados obtidos pela autora indicaram
que os educadores ainda se mostram conservadores no que diz respeito ao fato de ser uma
enciclopédia aberta e colaborativa. Entretanto, quando o alunado faz uso desse tipo de fonte
de informação em seus trabalhos acadêmicos, os professores as aceitam normalmente, ainda
que não a indiquem como fonte de referência para as pesquisas escolares. Porquanto, se o
alunado faz uso dessa fonte e os professores a aceitam nas pesquisas acadêmicas, a aceitação
da Wikipédia cresce progressivamente e, consequentemente, a sua confiabilidade aumenta,
sobretudo, perante os alunos.
Silva (2008) foi mais um a despertar o interesse em averiguar acerca da confiabilidade
das informações da Wikipédia, com base nos quesitos de conteúdo, usabilidade e
funcionalidade. No que se refere ao primeiro item, o autor concluiu que o conteúdo dessa
enciclopédia está adequado ao seu objetivo e ao público-alvo. Além disso, o nível elevado do
conteúdo está associado às normas gramaticais, tendo em vista a baixa quantidade de erros.
No que concerne ao segundo item, Silva (2008) observou que, naquele período, os conteúdos
voltados para os portadores de necessidades especiais eram inexistentes. Em relação à
usabilidade, o autor avaliou positivamente a adequação e o tamanho das fontes e das cores,
por estarem em confluência com o conteúdo que a mesma dispõe.
O último aspecto avaliado foi a funcionalidade, sendo bastante sublinhado por Silva
(2008) pelo fato de a Wikipédia dispor de espaços abertos de interação para a troca entre os
próprios colaboradores, visando à melhoria das páginas, sendo estas consideradas com fácil
manuseio e operacionalização. O trabalho realizado avaliou de forma positiva os aspectos da
Wikipédia a que se propôs.
Paralelamente à Wikipédia, a Wikimedia Foundation desenvolve outros projetos
seguindo a mesma dinâmica de funcionamento, como Wikiquote (coletânea de citações
livres), Wikicionário (dicionário em várias línguas), Wikispecies (diretório de espécies),
Wikinotícias (fonte de notícias livre), Wikisource (biblioteca livre), Wikimedia Commons
(arquivos de sons, imagens e vídeos), Wikiversidade (centro destinado à construção do
conhecimento em todos os níveis de complexidade), Wikilivros (espaço dedicado ao
desenvolvimento colaborativo de livros e materiais didáticos), Wikidata (base de
conhecimento que pode ser editada por humanos e máquinas), Wikivoyage (espaço dedicado à
construção de um guia turístico de viagem) e Meta-Wiki (coordenação de todos os projetos da
Wikimedia Foundation) (WIKIPÉDIA, 2013).
A filosofia de funcionamento da Wikipédia e de todos os seus projetos paralelos está
focada na liberdade que a mesma dispõe aos seus usuários e colaboradores no que diz respeito
ao seu conteúdo. Essa enciclopédia dispõe de seis princípios fundadores que devem ser
seguidos e respeitados pelos usuários que anseiam em participar desse projeto colaborativo:
1. O ponto de vista neutro como um princípio editorial mandatório.
2. A habilidade para qualquer pessoa editar (a maioria dos) artigos sem registrar-se.
3. O “processo wiki” como mecanismo final de tomada de decisão para todo conteúdo.
4. A criação de um ambiente editorial receptivo, amigável e respeitoso.
5. Licenças livres para o conteúdo; na prática definida por cada projeto como domínio
público, GFDL [GNU Free Documentation License], CC-BY-sa ou CC-BY
[Licença Creative Commons].
6. Manter espaço para o uso da confiança quando necessário para ajudar a resolver
problemas particularmente difíceis. Na Wikipédia em Inglês, um Comitê de
Arbitragem tem autoridade para tomar certas decisões em caráter final e vinculante,
como banir um editor. Outras wikis montaram arranjos similares (WIKIPÉDIA,
2013, online, grifo do autor).
Os princípios fundadores servem de base para o entendimento de alguns dos elementos
mais importante para o sucesso e o pleno funcionamento da Enciclopédia Livre ao longo dos
seus anos de existência.
5 A CONFIABILIDADE DA INFORMAÇÃO NO CIBERESPAÇO: CRITÉRIOS E
DESAFIOS
O advento do ciberespaço e das tecnologias de informação e comunicação é
responsável por grande parte das mudanças que vêm ocorrendo nos dois últimos séculos,
sobretudo no que se refere à informação, uma vez que facilitam a produção, o acesso, o uso e
a disseminação dessas em escala mundial. Como consequência, os estoques de informações e
sua disponibilização junto aos usuários se tornam um diferencial do ciberespaço, aumentando,
inclusive, a quantidade de fontes de informações acessíveis. Dessa forma, os meios de
comunicação de massa e os conglomerados midiáticos deixam de ser os grandes responsáveis
por levar as informações aos seus públicos.
A conexão em rede leva todo e qualquer tipo de informação ao usuário, que, além de
consumir os conteúdos indexados na web, agora tem a possibilidade de produzir seus próprios
conteúdos. Essa nova configuração da rede mundial de computadores põe em pauta a
discussão da confiabilidade das fontes de informações no ciberespaço.
Antes de uma informação chegar até aos seus usuários, os meios de comunicação ou
os veículos de informação realizam um trabalho envolvendo seleção, processamento,
averiguação e checagem das fontes e dos conteúdos a serem transmitidos ao público. Essa
tarefa é realizada por uma equipe de profissionais especializados e capacitados, que trabalham
de modo a “mostrar” que as informações a que o público está tendo acesso são verossímeis e,
por esse motivo, são de confiança. É justamente aí que surge o desafio da confiabilidade (ou
credibilidade) no ciberespaço, principalmente pelo modo de produção livre que a cultura
copyleft apregoa, na qual qualquer usuário tem o livre arbítrio de produzir informações e
disponibilizá-las para que outros tenham acesso a elas. Nesse espaço, observamos que há um
rompimento com o monopólio de produção da informação que outrora reinava nos meios
massivos de comunicação e na esfera técnico-científica.
Nas empresas de comunicação e nas instituições de estudos e pesquisas, a produção e
o tratamento das informações são regidos por um conjunto de normas técnicas e deontológicas
que fazem o exercício profissional, denotando comprometimento na veracidade e no teor do
conteúdo veiculado. Em contrapartida, o ciberespaço, em muitos casos, indispõe desses
princípios profissionais que asseguram o comprometimento dos usuários com o conteúdo a
ser postado. Por esse motivo, Serra (2006) defende que, antes de fazer uso dos conteúdos que
se encontram no ciberespaço, o usuário deve realizar uma seleção criteriosa centrada na
credibilidade dessa informação. Contudo, essa é uma tarefa complicada de ser realizada, dada
a existência de inúmeras fontes informacionais no ciberespaço. Além disso, os requisitos, as
especificidades e as discrepâncias existentes entre tais fontes demandam critérios igualmente
específicos e particulares.
Um percalço considerável que dificulta o entendimento e o estabelecimento da
credibilidade das informações consiste na premissa da credibilidade “não ser entidade, ou uma
propriedade de uma entidade, mas uma relação – que tem como pólos, o produtor/emissor da
informação e o receptor dessa mesma informação. Mas esta informação não é estática”
(SERRA, 2006, p. 2). Isso que dizer que a credibilidade das informações não é uma
propriedade deste ou daquele meio de comunicação de massa, mas, sim, que ela surge de uma
relação de reciprocidade centrada na confiança que se estabelece entre produtores e usuários
da informação em uma atividade dinâmica.
Simultaneamente, Serra (2006) afirma que são os usuários que devem eleger que tipo
de informação é ou não confiável. Para isso, é preciso que se considere que a comunicação da
informação se constitui de dois princípios: o da pertinência e o da credibilidade. O primeiro
está relacionado à “pertinência da informação, à sua ontologia”, enquanto o segundo diz
respeito “à pretensão de verdade dessa informação, à sua epistemologia” (SERRA, 2006, p.
2).
Com efeito, pertinência e credibilidade parecem andar a par enquanto princípios
orientadores da selecção da informação pelos receptores: se não for considerada
pertinente, uma informação, por mais credível que ela seja, ao não concitar a atenção
dos seus eventuais receptores, está condenada a uma não existência de facto [...];
mas, se não for considerada credível, uma informação, por mais pertinente que ela
possa ser, acaba por ser desqualificada e mesmo anulada como informação (SERRA,
2006, p. 2).
Com isso, observamos que a credibilidade das informações da web é um assunto que
está permeado por dúvidas e incertezas quanto à sua definição e seus preceitos práticos. Nessa
perspectiva, muitos esforços surgem na tentativa de apontar diretrizes capazes de indicar os
elementos e os critérios que podem ser levados em consideração na identificação de fontes
credíveis e confiáveis no domínio da Internet. Nesse entremeio, Tomáel et al (2001)
consideram a avaliação das fontes de informação da web de vital importância para quem
utiliza tais endereços para fins de pesquisa. Esses estudos, dizem os autores, podem enfatizar
a inconstância das informações existentes no ciberespaço.
A inconsistência das informações da rede mundial de computadores a que Tomáel et al
(2001) se referem são facilmente perceptíveis se comparadas às fontes de informação
impressas, que adotam um conjunto de políticas na publicação de suas informações, enquanto
no ciberespaço muitas fontes nem esclarecem a autoria de quem as produziu. Os autores
consideram que a identificação intelectual de quem produziu esse conteúdo, quem está
disponibilizando, a data e o endereço onde foi publicado são fatores que precisam estar
presentes em qualquer domínio do ciberespaço. Assim como as fontes impressas, que contam
com seus elementos de confiabilidade, como, por exemplo, autoria, data de publicação,
editora responsável, bibliografia, citações etc., as fontes de informação da Internet também
precisam de mecanismos que assegurem a confiabilidade das informações existentes.
Diante dessa questão, Tomáel et al (2001) realizaram um estudo que viabiliza e
enumeram os critérios que devem ser adotados pelos usuários para identificar as fontes mais
confiáveis da Internet. Nessa pesquisa, os autores chegaram ao número total de 10 critérios
capazes de apontar a qualidade dessas fontes de informações. Tomando como referência esses
autores, elaboramos um quadro que descreve os critérios e seus respectivos aspectos a serem
usados na análise e definição do seu nível de qualidade de fontes de informação.
Quadro 2: Critérios de Avaliação da Confiabilidade de Fontes de Informação da Web
Critérios Aspectos Analisados
Informação de identificação:
visa a identificar os dados
físicos ou jurídicos do
responsável pelo site.
- Endereço eletrônico do site (URL) e da fonte de informação;
- Email do site;
- Título da fonte de informação;
- Endereço eletrônico da fonte de informação definindo a autoria;
- Objetivo da fonte e o público-alvo;
- Disponibilização de informações adequadas sobre a fonte;
- Identificação da tipologia e origem da fonte.
Consistência das informações:
Objetiva tornar público o
detalhamento e a completeza
das informações.
- Cobertura da fonte;
- Validez do conteúdo (sua utilidade em relação aos propósitos do usuário
final);
- Resumos ou informações complementares que aumentem a qualidade;
- Coerência na apresentação do conteúdo informacional, não apresentando
informações muito superficiais;
- Oferta de informações filtradas ou com agregação de valor;
- Apresentação de informação original ou apenas a possibilidade de recuperá-
la através dos links.
Confiabilidade das fontes:
almeja investigar a autoridade
ou a responsabilidade.
- Dados completos de autoria como mantenedor da fonte, podendo ser pessoa
física ou jurídica;
- Autor (pessoa física) reconhecido com formação ou especialização na sua
área;
- Organização ou instituição que disponibiliza o site, caso o autor da fonte
pertença a ela;
- Conteúdo informacional relacionado à área de atuação do autor;
- Observância de outras informações como: existência de referências
bibliográficas dos trabalhos do autor; endereço para contato com o autor; se
foi derivada de um formato impresso/origem;
-Verificação de datas: quando foi produzida; se está atualizada e quando foi
atualizada pela última vez.
Adequação da fonte:
tipo de linguagem utilizada e
- Coerência da linguagem utilizada pela fonte com seus objetivos e o público
a que se destina;
adequação aos objetivos. - Coerência do site onde a fonte estiver localizada com seu propósito ou
assunto.
Links: endereços de sites e
outras fontes de informações
- Links internos: recursos que complementam as informações da fonte e
permitem o acesso e a navegação na própria fonte de informação:
- clareza para onde conduzem;
- tipos disponíveis: anexos, ilustrações, informações complementares,
outras páginas do site;
- atualização dos links, apontando para páginas ativas.
- Links externos: recursos que permitem o acesso às informações e a
navegação em outras fontes/sites:
- clareza para onde conduzem;
- devem apontar apenas para sites com informações fidedignas/úteis e
apropriadas;
- tipos disponíveis mais comuns: informações complementares e/ou
similares, ilustrações, comércio relacionado, portais temáticos, entre outros;
- revisão constante dos links, apontando para páginas existentes.
Facilidade de uso: facilidade
para navegar/explorar o
documento.
- Links:
- que possibilitem fácil movimentação;
- links suficientes na fonte, que permitam avançar e retroceder.
- Quantidade de clicks para acessar a fonte e a informação:
- da página inicial do site até a fonte: recomendável três ou menos clicks;
- da fonte à informação: recomendável três ou menos clicks;
- Disponibilidade de recursos de pesquisa na fonte: função de busca, lógica
booleana, índice, arranjo, espaço da informação e outros;
- Recursos auxiliares à pesquisa;
- tesauros, listas, glossários, mapa do site/fonte, guia, ajuda na pesquisa,
outros;
- instruções de uso;
- documentação/manuais da fonte de informação para download ou
impressão.
Layouts da fonte: mídia
utilizada.
- Uso de mídias interessantes;
- Tipos de mídias utilizadas: imagens fixas ou em movimento e som;
- Harmonia entre as mídias e os verbetes;
- Coerência entre as várias mídias:
- uso de imagem para agregar informações ao conteúdo;
- pertinência aos propósitos da fonte;
- legibilidade (nitidez, tamanho da letra/imagem);
- identificação das imagens.
- Na estrutura/apresentação da fonte (layout e arranjo) é importante:
- coerência na padronização na estética da página, tamanho da letra, cor;
- propósito para o uso dos recursos;
- uso de imagens que facilitem a navegação;
- design do menu para facilitar a busca de informações;
- criatividade que contribua para a qualidade;
- evitar o uso dos frames, que limitam o espaço de visualização da fonte.
Restrições percebidas: são
situações que ocorrem durante o
acesso e que podem restringir
ou desestimular o uso de uma
fonte de informação.
- Baixa quantidade de acessos simultâneos;
- Alto custo no acesso à fonte;
- Mensagens de erro durante a navegação;
- Direitos autorais impedindo o acesso à informação completa;
Suporte ao usuário: elementos
que fornecem auxílio ao usuário
durante o acesso à fonte.
- Contato com produtor da fonte: endereço ou email;
- Informações de ajuda na interface: help.
Outras observações
percebidas.
- Recursos que auxiliam o deficiente no uso da fonte;
- Opções de consulta em outra língua.
Fonte: Elaborado pela autora com base em Tomáel et al (2001).
Além desses critérios apontados pelos autores, temos também as contribuições de
Fogg et al (2002a, 2002b), que indicam que uma das vertentes possíveis para se investigar e
se descobrir a credibilidade e a reputação das informações da web são os mecanismos search
engines. Esses mecanismos são programas ou sites especializados em localizar as informações
da web que possuam a maior credibilidade e confiabilidade possível para que os usuários
possam dispor de um conteúdo mais seguro. Os resultados localizados trazem dados extras
como emails e outros recursos adicionais.
Fogg et al (2002a, 2002b) asseveram que 10 aspectos devem ser levados em
consideração para que um sítio da web ganhe o status de confiável. O primeiro consiste em
tornar visível as citações, as referências e o material utilizado nas informações do site, como
forma de comprovar que o teor do seu conteúdo é confiável. O segundo ponto incentiva os
detentores das páginas a certificarem seus usuários que, por trás daquelas informações, existe
uma organização, de fato. O terceiro aspecto diz respeito ao fato do próprio staff do site em
tornar público as suas experiências e a prestação dos serviços que oferecem, assim como
credenciar quem faz parte do seu corpo de profissionais. O quarto aspecto visa exibir, por
meio de imagens, a equipe de profissionais que compõem o site, podendo também incluir
imagens da vida particular desses funcionários.
O aspecto de número cinco trata de disponibilizar aos usuários informações que lhes
permitam localizar fisicamente o site, por meio do endereço, telefone, email. O sexto aspecto
consiste na linguagem visual para que o site fique adequado à sua proposta inicial. Tendo em
vista esse comentário, o layout deve estar de acordo com a finalidade a que se propõe o site. A
usabilidade e o fácil manuseio do site são fatores importantes para a credibilidade, aparecendo
como o sétimo aspecto. A oitava consideração que contribui para a confiabilidade é a
constante atualização de conteúdo. A publicidade, a propaganda e o anúncio em demasia
podem comprometer a credibilidade de qualquer endereço. Por esse motivo, os autores
recomendam que seus usos devam ser moderados. O nono aspecto envolve o uso de uma
linguagem clara e concisa como elementos que contribuem para a credibilidade das
informações. O décimo e último aspecto enfatiza que todo e qualquer erro, por mais simples e
desprezível que possa parecer, deve ser sumariamente evitados. Links fora do ar e quebrados
são fatores comprometedores da credibilidade das informações.
Os apontamentos de Tomáel et al (2001) e as considerações feitas por Fogg et al
(2002a, 2002b) seguem um mesmo direcionamento. As definições por esses autores tornam-
se opções válidas para que o usuário tenha a possibilidade de reconhecer uma fonte de
informação confiável no domínio do ciberespaço. Além disso, essas considerações permitem
que os próprios detentores dessas fontes tenham o conhecimento de que essas características
podem creditar seus endereços como confiáveis, podendo adequá-las a essas premissas.
Mesmo que essas observações sejam pertinentes e de suma relevância para a
confiabilidade das informações das fontes da Internet, é importante salientar a existência de
outras possibilidades e caminhos que levem ao reconhecimento de uma fonte de informação
de qualidade. Nesse contexto, os sistemas de reputação merecem destaque.
5.1 Sistemas de Reputação: um Caminho para a Confiabilidade
O ciberespaço e as tecnologias da Internet permitem que os sistemas de reputação se
tornem uma alternativa para a questão da confiabilidade das informações existentes no mundo
virtual. No campo tecnológico, os sistemas de reputação ganham cada vez mais visibilidade
por serem considerados aportes capazes de identificar elementos e estruturas que categorizem
as informações como credíveis e confiáveis. Esses sistemas colhem, difundem e adicionam
avaliações sobre o comportamento anterior de indivíduos e entidades no cenário das
interações que ocorrem no ciberespaço (LOPES, 2006). Os sistemas de reputação estão
centrados na avaliação e no julgamento dos próprios usuários sobre serviços prestados na
Internet.
O aparecimento dos sistemas de reputação está atrelado à expansão do comércio
eletrônico via Internet. Inicialmente, eles funcionavam como uma ferramenta de avaliação
entre vendedores e compradores, cuja dinâmica consistia em um cliente X avaliar o produto
disponibilizado pelo vendedor Y. Após a avaliação, o resultado ficava disponível para
visualização e consulta de outros interessados na mesma página da Internet em que as
transações aconteciam. Quanto mais avaliações positivas tivesse um produto, mais ele era
considerado confiável pelos demais consumidores. Um dos pioneiros a agregar o sistema de
reputação à sua logística foi o projeto eBay. Atualmente, endereços voltados para a
comercialização de produtos via Internet ainda contam com os sistemas de reputação, como é
o caso do Mercado Livre, do Wal Mart e do Amazon, como forma de avaliar os serviços
prestados entre vendedores e compradores.
O sucesso dos sistemas de reputação depende de dois elementos basilares para o seu
funcionamento: a confiança e a reputação. Embora sejam amplamente difundidos como
similares, Cruz e Motta (2006) e Lopes (2006) explicam que existem diferenças entre eles. A
confiança corresponde à consideração ou a uma espécie de sentimento particular de um
indivíduo em relação ao outro. Ela pode ser entendida como uma opinião que está relacionada
a um sujeito A considerar as ações e atitudes de um indivíduo B como confiável. Nela, o
sujeito A passa a ver as ações do outro B como benéficas e benevolentes, ou seja, visando a
proporcionar o bem ao próximo. A reputação leva em conta a opinião que uma coletividade
tem a respeito de uma pessoa, instituição ou entidade, sendo considerada como “uma medida
coletiva (senso comum) da confiabilidade de uma entidade, baseada em avaliações feitas por
membros da comunidade em que se situa” (LOPES, 2006, p. 36). É possível que uma pessoa
tenha uma má reputação perante a coletividade, mas seja considerada uma pessoa de
confiança por outro sujeito.
A permissividade que assola o cenário do ciberespaço é um desafio emergente para os
sistemas de reputação, principalmente pela possibilidade de fraude daqueles que têm uma
reputação mal vista pelos demais usuários de um serviço ou produto. Os sistemas de
reputação devem dispor, segundo Resnick et al (2000), de três características para se tornarem
cada vez mais seguros e confiáveis frente aos seus usuários, são elas: a longevidade, a coleta e
a distribuição de feedback das interações recorrentes, e agregação por feedback.
A longevidade tem como finalidade tornar visíveis as interações ocorridas
anteriormente, bem como impossibilitar a criação de perfis e usuários falsos no intuito de
excluir o histórico avaliado negativamente por outros usuários. Os autores mencionam como
soluções para este problema a obrigatoriedade da identificação real das pessoas, o veto a
mudanças de nomes e ao uso diversificado de pseudônimos.
A coleta e a distribuição de feedback das interações recorrentes consistem em fornecer
subsídios que incentivem a avaliação após a interação mantida. Para isso, seriam oferecidos
“bônus” para as futuras interações. O controle do anonimato seria uma saída para que fossem
evitadas retaliações quanto às avaliações negativas feitas pelos outros usuários. A integração
entre os vários sistemas de reputação permitiria mais difusão e acumulação das informações
de reputação dos usuários, mediante a distribuição de feedback ilimitado.
A agregação por feedback, por sua vez, aparece como uma medida para a efetivação
dos sistemas de reputação. Para tornar os mecanismos mais ativos e consistentes, devem ser
consideradas a precisão das medidas, a robustez contra manipulação de avaliadores
desonestos e as avaliações recentes.
Os sistemas de reputação apresentam duas categorias distintas que são responsáveis
por “controlar” as informações que partem desses sistemas, que, segundo Lopes (2006),
podem ter suas arquiteturas centralizadas ou distribuídas.
Os sistemas de reputação que possuem suas arquiteturas centralizadas dizem respeito
àqueles em que um sujeito específico (autoridade central) é o responsável pelo recebimento
das avaliações dos outros usuários, ficando sucumbida a ele a tarefa de fornecer aos demais
usuários a avaliação da reputação de outro usuário quando solicitada.
Os dois principais aspectos desta arquitetura são os protocolos de comunicação
centralizados, que permitem informar avaliações e solicitar as medidas de reputação
à autoridade central, e o mecanismo de computação de reputação, responsável por
agregar as avaliações de desempenho em uma medida de reputação (LOPES, 2006,
p. 44).
As arquiteturas distribuídas constituem a segunda categoria dos sistemas de reputação
cujo funcionamento é oposto ao anterior, justamente por independer de uma autoridade
central para possuir as informações. As informações dessa categoria são localizadas em
lugares diversificados. Quando uma pessoa ou entidade deseja saber acerca da reputação dos
outros, os próprios usuários se mobilizam para fornecer tais considerações, agregando suas
avaliações em torno do produto ou do serviço prestado por ele, ou, ainda, o solicitante pode
localizar essas informações, analisá-las e julgá-las à sua maneira. Com isso, a arquitetura
distribuída prevê que o solicitante chegue a uma conclusão sobre a reputação de quem ou do
que ele deseja saber. “Os dois principais aspectos são: os protocolos de comunicação
distribuídos, usados para requisitar avaliações de terceiros aos membros da comunidade, e um
método para que a própria parte interessada derive medidas de reputação a partir das
avaliações recebidas” (LOPES, 2006, p. 44).
5.1.1 Modelos de Sistemas de Reputação
De um modo geral, a tecnologia é essencial para as atividades e interações que
acontecem no ambiente virtual e da mesma forma ocorrem os sistemas de reputação. A
possibilidade de usos diferentes e específicos proporciona, conforme podemos observar a
partir de Lima (2010), o desenvolvimento de modelos de reputação cada vez mais
especializados.
O modelo de reputação baseado em perfis tem, na sua dinâmica de funcionamento, a
criação de perfis virtuais para os seus usuários, nos quais cada um deles só pode ser detentor
de uma única conta que pode ser alterada ao longo das interações. Os usuários participantes
devem cumprir com os direitos e deveres impostos pela comunidade. Esse modelo é
inadequado às comunidades que têm como foco a competitividade entre seus participantes.
Porém, ele pode ser muito indicado para incentivar o trabalho colaborativo entre as partes
envolvidas, podendo ser exibidos os resultados e o avanço individual de cada usuário,
mediante suas contribuições.
Lima (2010, p. 14) esclarece que, no funcionamento desse modelo de reputação, “cada
perfil deve representar uma categoria diferente de usuários, com direitos e recompensas
melhores que a categoria anterior. Também devem ser usados nomes únicos e bem distintos
para cada perfil, de modo a serem facilmente entendidos e comparados”. De acordo com esse
modelo, quanto mais um colaborador exercer suas atividades, mais rápido ele ascenderá de
nível. Por consequência, maior e melhor será sua reputação diante dos demais usuários. As
regras devem ser suficientemente claras para que os participantes saibam o porquê de terem
progredido ou regredido de nível.
A reputação baseada em dados numéricos é similar ao modelo anterior, porém, sua
funcionalidade é mais indicada para as comunidades que incentivam a competitividade entre
seus participantes (LIMA, 2010). Os índices numéricos são fatores que exibem com maior
facilidade a hierarquização da reputação de seus usuários.
O sistema de reputação baseada em nome de membro é diversa dos modelos
anteriores. Os usuários recebem rótulos para legitimar os participantes como confiáveis ou
não. Esse modelo permite que a estratégia utilizada diferencie os participantes oficiais de uma
dada comunidade dos administradores de um sistema (LIMA, 2010).
O modelo de reputação baseado em pontos é indicado para as comunidades altamente
competitivas, como as comunidades destinadas aos desportos (LIMA, 2010). A perda ou o
ganho de pontos é o que eleva ou diminui a reputação dos seus membros. Nele, as regras
também têm de ser explícitas para que os participantes estejam cientes dos critérios que os
levaram a conquistar certa quantidade de pontos.
A reputação baseada em rankings é recomendada para comunidades competitivas que
almejam tornar público o desempenho de seus participantes em relação aos demais usuários.
O uso de rankings é uma alternativa para que os usuários visualizem com maior facilidade os
membros que se encontram em uma posição inferior ou superior à sua. Como forma de
impulsionar a competição entre os membros, podem ser oferecidos prêmios e brindes virtuais
tanto para os participantes melhores colocados no ranking quanto para os que se encontram
em posições inferiores (LIMA, 2010).
Obviamente, o sucesso e o funcionamento de todos esses sistemas de reputação
dependem das interações e das participações dos usuários envolvidos. A adequação desses
sistemas depende do fluxo de atividades que ocorrem entre seus usuários. Por esse motivo, os
sistemas de reputação também devem ser o mais flexível possível para que haja
transformações no seu regimento quanto mais interações e colaborações haja nos sistemas
abertos e interativos que a web disponibiliza aos seus internautas.
Nesse tocante, é preciso estar alerta para as reais intencionalidades desses sites e
comunidades virtuais, para se que se possa pensar na implementação de sistemas de reputação
cada vez mais precisos e adequados à proposta inicial do referido endereço da Internet. Lima
(2010) menciona que o portal Yahoo! realizou um fórum de suporte ao desenvolvedor no ano
de 2010 como forma de ajudar os usuários a escolherem e desenvolverem um sistema de
reputação propício para cada situação, voltando os olhares para a finalidade dessas
comunidades virtuais. O autor destaca e segmenta cinco padrões das comunidades virtuais
em atenciosas, colaborativas, cordiais, competitivas e combativas.
Em geral, os participantes da comunidade atenciosa têm como objetivo a ajuda mútua
e recíproca entre si. Nessas comunidades, a reputação tem como serventia apenas a
identificação do tempo de colaboração dos participantes mais antigos e mais recentes, o que
proporciona a troca de experiência e o pedido de ajuda na realização de tarefas específicas.
Serve como esse exemplo, o blog Y! Health Expert Blogs (LIMA, 2010).
Nas comunidades de padrão cordial, os participantes possuem interesses adversos, mas
nem por isso travam qualquer tipo de conflito ou competição. Os dados históricos
possibilitam identificar quais usuários possuem a maior quantidade de contribuições. O Yahoo
Answers e o pioneiro eBay são exemplificados por Lima (2010) como comunidades de
padrões cordiais.
Nas comunidades competitivas, os participantes travam uma espécie de competição,
mesmo sabendo que compartilham de objetivos comuns. Um sistema de reputação adequado
para esse tipo de caso são aqueles que visam a mostrar quem são os participantes mais
atuantes. O Y! Fantasy Sports é um exemplo (LIMA, 2010).
Na comunidade combativa, padrão apresentado por Lima (2010), os usuários
competem entre si, uma vez que possuem metas completamente opostas. Os sistemas de
reputação servem para mostrar quem são os colaboradores que estão em estágios mais
avançados que os outros, como ocorre com o Xbox Live.
Os envolvidos na comunidade colaborativa têm como meta comum agir em prol da
comunidade, trabalhando e operando de forma conjunta para alcançar o objetivo proposto.
Nessa comunidade, Lima (2010) aconselha que os participantes sejam identificados como
ativos, antigos e confiáveis.
Conhecer as funcionalidades e os objetivos das comunidades virtuais é imprescindível
para a escolha de um sistema de reputação adequado e condizente com as necessidades delas.
Sob essas premissas, observamos mais um sistema de reputação pensado especificamente para
uma comunidade virtual acadêmica: o Activ UFRJ.
5.1.2 Sistemas de Reputação em Comunidades Virtuais Acadêmicas: o Caso da Activ UFRJ
As interconexões que acontecem entre as pessoas no ciberespaço se dão em ambientes
interativos que democratizam a disseminação da informação e do conhecimento, como as
citadas comunidades virtuais. Assim como os demais sites de endereço da Internet, elas
também são permeadas de informações imprecisas, duvidosas ou até mesmo falsas. Com as
informações que circulam entre o público acadêmico, ocorre da mesma maneira. Por essa
razão, torna-se importante refletirmos sobre o modelo de reputação proposto por Cruz e Motta
(2006) para os ambientes acadêmicos.
Este modelo tem como finalidade estabelecer parâmetros de confiabilidade na
comunidade virtual destinada às interações dos alunos de graduação da UFRJ, a Activ UFRJ.
O objetivo proposto pelos autores é fornecer informações acerca das participações e das
contribuições dos usuários no campo de atuação destes, com o intuito de usar como indicativo
das suas reputações.
Cruz e Motta (2006) expõem que esse sistema de reputação requer que o usuário
realize um cadastro de áreas de interesse relativo à temática da comunidade, coleta de retorno
explícito dos usuários sobre a serventia das participações dos outros membros, estratégias de
pontuação e recomendação de usuários com alta reputação em áreas específicas de interesse.
Dentre as especificidades desse modelo, estão inclusas a possibilidade de mensuração da
confiabilidade através de quantitativos referentes a avaliações que um colaborador realiza na
própria comunidade, e a mensuração da confiabilidade por dados qualitativos referentes às
contribuições e às respostas de outros usuários sobre uma informação disponibilizada na
comunidade.
O sistema de reputação elaborado por Cruz e Motta (2006) propõe um cadastro de
áreas de interesse que permitirá que os participantes de outra comunidade virtual realize um
cadastro relacionado ao tema da comunidade. Os dados contidos serão registrados em um
banco de dados para que possam ser reutilizadas em cadastros de áreas de interesse de outras
comunidades. Através disso, os membros farão associações entre comunidades virtuais por
meio das áreas de interesse.
O retorno explícito poderá coletar a opinião dos usuários através dos artefatos
publicados (compreendido como qualquer tipo de material compartilhado) e a denominação
dessas avaliações quanto à sua utilidade (CRUZ; MOTTA, 2006). Esse mecanismo
possibilitará que sejam geradas “recomendações mais confiáveis de artefatos, como também,
identificar as pessoas que contribuíram de forma mais positiva ou negativa para o sucesso da
comunidade” (CRUZ; MOTTA, 2006, p. 355).
As estratégias de pontuação também fazem parte do sistema de reputação para as
comunidades virtuais acadêmicas. A participação será contabilizada usando “os pontos
adquiridos através da avaliação de artefato e das qualificações das avaliações de outros
membros. Por sua vez, as contribuições serão calculadas através das notas adquiridas em
artefatos avaliados e em avaliações qualificadas por outros membros” (CRUZ; MOTTA,
2006, p. 355). Esse mesmo modelo prevê ainda
A recomendação de pessoas com alta reputação em determinadas áreas de interesse,
para que as pessoas que tenham se identificado com essas áreas através das suas
participações (avaliando os artefatos ou qualificando avaliações). Para isso, será
utilizada uma estratégia de combinação social para compatibilizar usuários com
altos pontos de contribuição em determinadas áreas de interesse, com usuários com
altos pontos de participação nessas mesmas áreas. Espera-se, dessa forma, motivar
os usuários a participarem de forma produtiva e com avaliações honestas, para não
correrem o risco de receber recomendações de pessoas não confiáveis (CRUZ;
MOTTA, 2006, p. 355-356).
Os sistemas de reputação voltados para as interações da comunidade acadêmica da
UFRJ possuem as características gerais dos sistemas de reputação. Todavia, a possibilidade de
transpor as barreiras da própria comunidade na tentativa de estabelecer uma espécie de “links”
com outras comunidades, baseada nos interesses dos membros participantes, torna-se um
diferencial interessante.
6 O DESENHO DA PESQUISA: DEFINIÇÕES, PERCURSOS E PROCEDIMENTOS
METODOLÓGICOS
No planejamento e na execução de uma pesquisa científica, os procedimentos
metodológicos conservam um lugar de suma relevância, se não o mais importante, na medida
em que, a partir da escolha metodológica adequada, o pesquisador tem a possibilidade de
alcançar os objetivos estabelecidos, respondendo ao seu problema de pesquisa de forma
satisfatória. A metodologia é, nas palavras de Minayo (1996, p. 22), “o caminho e o
instrumental próprios da abordagem da realidade”.
De modo mais preciso, Barros e Lehfeld (2007, p. 2) esclarecem que a metodologia
“corresponde a um conjunto de procedimentos a ser utilizado na obtenção do conhecimento”.
Logo, esta corresponde ao trajeto que leva o investigador a chegar a um conhecimento que
ainda é desconhecido. Daí a importância da escolha de uma metodologia adequada,
estabelecendo as características e os limites do conjunto de procedimentos adotados.
6.1 Caracterização da Pesquisa
A literatura referente aos métodos e técnicas de pesquisas apresenta, pelo menos,
quatro tipos de pesquisas científicas, são elas: a teórica, a metodológica, a empírica e a
prática. Inobstante cada uma apresenta particularidades e especificidades que as definem,
devemos ter em mente que nenhuma delas é “autossuficiente”, e, por isso, na “prática,
mesclamos todos, acentuando mais este ou aquele tipo de pesquisa” (DEMO, 2000, p. 22).
Tendo em vista que a Wikipédia, a Enciclopédia Livre, nosso objeto de estudo, se situa
em domínio delimitado da realidade, o presente estudo se caracterizou como uma pesquisa
empírica. Esse tipo de pesquisa trabalha, conforme Demo (1994), com o caráter fatual da
realidade, produzindo e analisando os dados, sempre agindo sob o controle da empiria e dos
fatos. Além disso, é importante observar que essa oferece maior concretude às arguições do
pesquisador por estar justamente centrada nessa base fatual.
Demo (1994) destaca também que a pesquisa empírica depende tanto dos dados
empíricos quanto da teoria para fornecer subsídios que agreguem e possibilitem a
aproximação prática da pesquisa. Desta maneira, as contribuições teóricas abordadas acerca
das temáticas centrais, tais como ciberespaço, colaboração, produção e compartilhamento de
informações na web, serviram de sustentação para a compreensão e a análise da dinâmica de
funcionamento da produção colaborativa de conteúdos no domínio da Wikipédia, a
Enciclopédia Livre. Para Lakatos e Marconi (2011), essas discussões só podem ser realizadas
através da pesquisa bibliográfica, que fornece dados antigos e atuais relevantes capazes de
atualizar os debates sobre o tema. Acrescentam, ainda, que esse é capaz de dizimar os erros,
diminuir as redundâncias e provocar novos questionamentos sobre o objeto de estudo.
Ao focarmos a Wikipédia, a Enciclopédia Livre, no universo de diversas fontes de
informação existentes no ciberespaço que a produção colaborativa de conteúdos e o
compartilhamento de informações abarcam, a pesquisa adquiriu o status de um estudo de
caso, cuja maior finalidade foi conhecer de forma mais aprofundada a situação que se pode
apresentar singular em suas características e aspectos.
A rigor, na medida em que esta teve como fonte material de análise os conteúdos que
descrevem os procedimentos de produção e colaboração das informações, apresentou-se
também como uma pesquisa documental. Segundo Neves (1996), nesse tipo de pesquisa, o
investigador tem a possibilidade de fazer uso dos dados que ainda não receberam nenhum
tratamento analítico, podendo, ainda, serem reexaminados, promovendo interpretações novas
e complementares.
6.2 Abordagem Qualitativa
Considerando o material empírico e os problemas levantados, a abordagem qualitativa
corresponde à que melhor se adequou à pesquisa realizada. Essa, conforme Richardson
(2008), dispensa, na sua realização e no processo de análise, o uso de instrumentos de
pesquisas capazes de obter dados numéricos e estatísticos. O contato direto e interpretativo do
pesquisador com o objeto a ser estudado faz parte do processo de pesquisa.
É nessa relação de aproximação que pudemos localizar e buscar compreender com
maior clareza os elementos e os fenômenos que se encontram presentes na estrutura da
Wikipédia, a Enciclopédia Livre e que delimitam a confiabilidade das informações dessa
enciclopédia. O fato é que, segundo Trivinõs (1987), a abordagem qualitativa se preocupa
tanto com o seu resultado/produto quanto com o processo e com o significado que o objeto de
estudo apresenta.
Nesse contexto, é importante destacarmos que, de acordo com Godoy (1995, p. 2), a
pesquisa científica qualitativa se constitui de quatro características bastante significativas, são
elas: “a) ambiente natural como fonte direta de dados e o pesquisador como instrumento
fundamental; b) caráter descritivo; c) o significado que os indivíduos dão às coisas e à sua
vida como preocupação do investigador; d) enfoque indutivo”.
6.3 Métodos e Técnicas de Coleta e Análise de Dados
Na coleta e na análise de dados, tivemos como base um conjunto de procedimentos
que buscaram caracterizar a estrutura da enciclopédia visando à compreensão do
funcionamento da produção colaborativa de conteúdos. Tratou-se, portanto, de partir do
conjunto de conteúdos que constitui aquela estrutura e alcançar um conjunto de diretrizes que
condicionem este funcionamento. Assim, os métodos de coleta e análise escolhidos tiveram
por base alguns procedimentos metodológicos da Análise de Conteúdo (AC) de Laurence
Bardin.
Trata-se de um conjunto de “técnicas de análise de comunicação, visando obter por
procedimentos sistemáticos e objetivos de descrição do conteúdo das mensagens, indicadores
(quantitativos ou não) que permitem a inferência de conhecimentos relativos às condições de
produção/recepção destas mensagens” (BARDIN, 2010, p. 42).
Complementando, Berelson (1952, p. 18 apud MINAYO, 1996, p. 200) a descreve
como uma “técnica de pesquisa para a descrição objetiva, sistemática [...] do conteúdo
manifesto das comunicações e tendo por fim interpretá-los”, cuja intenção é eximir-se das
conotações do senso comum e da subjetividade existente na interpretação dos conteúdos tanto
dos documentos quanto de textos literários, biografias, entrevistas ou observação. De maneira
mais precisa, Richardson (2008) esclarece que a AC nada mais é do que a junção de
instrumentos metodológicos capazes de analisar os discursos diversos.
A abrangência da AC originou segmentações que são utilizadas conforme as
particularidades da pesquisa. Nesse conjunto, interessaram-nos a Análise das Relações (AR) e
a Análise Temática (AT), que combinadas possibilitaram uma compreensão integrada do
conjunto de elementos que estabelecem as diretrizes gerais de produção colaborativa de
conteúdo no domínio da Wikipédia. De acordo com Minayo (1996), a AR tem como
preocupação a relação que os vários elementos de um texto qualquer mantém entre si. Essa
técnica se subdivide em duas: a análise de co-ocorrência, que procura identificar em um texto
as relações existentes entre as partes de uma mensagem e assinala uma presença simultânea
de dois ou mais elementos em um mesmo contexto, e a estrutural, que tem como finalidade
identificar a existência de estruturas universais ocultas na diversidade aparente dos
fenômenos. Para fins deste estudo, tomamos como embasamento apenas a análise de co-
ocorrência, isto porque a incidência reiterada de uma diretriz política ou recomendação na
estrutura da Wikipédia se apresenta como um elemento importante, capaz, inclusive, de
contribuir para a confiabilidade dos conteúdos produzidos e das informações que os
constituem. Essa técnica permitiu a compreensão de que a produção dos artigos e verbetes
está estritamente relacionada aos indicadores de confiabilidade presentes no item Princípios
de Confiabilidade dos Conteúdos da Wikipédia.
A AT, por sua vez, tem como finalidade identificar os núcleos de sentido que
constituem uma comunicação, cuja presença ou frequência signifiquem alguma coisa para o
objetivo analítico desejado. Dito de outra maneira, a AT conduz a contagem de frequência das
unidades de significação como definidoras do caráter do discurso. A identificação de
determinados temas confere valores de referência e os modelos de comportamento existentes
no discurso (MINAYO, 1996). Na pesquisa realizada, as questões que giram em torno da
confiabilidade exprimem a preocupação da Enciclopédia Livre em produzir um conteúdo
confiável, sobretudo, pela incidência reiterada dos temas nas políticas e recomendações, como
os indicadores presentes em Itens de Confiabilidade das Páginas, Políticas de Produção de
Conteúdo na Wikipédia, O Reconhecimento do Trabalho Colaborativo: a Equipe de
Confiança, e Wikiquette: a Netiqueta da Wikipédia.
No que se refere à operacionalização, segundo Bardin (2010), a AC foi executada em
três fases: a pré-análise, a exploração do material, o tratamento dos resultados e as inferências.
A figura abaixo esquematiza as fases desse processo.
Figura 1: Etapas do processo de Análise do Conteúdo
Fonte: Elaborado pela autora com base em Bardin (2010).
Leitura flutuante
Constituição do
corpus
Pré-análise
Formulação de
hipóteses e objetivos
Fases da análise
Exploração do material
Tratamento dos
resultados e inferência
Na primeira fase, adentramos no universo da Wikipédia visando a apreender os
elementos que compõem a sua estrutura e compreender o seu funcionamento. Nessa etapa, a
leitura flutuante possibilitou o contato com o material analisado, oferecendo as primeiras
impressões e considerações do objeto de estudo. Já na execução dessa etapa, passamos a
colher os dados que nos permitiram apontar as características gerais e específicas da
Wikipédia, a começar pelo conhecimento dos Cinco Pilares, dos Princípios Fundadores e da
O que a Wikipédia não é. Esses aspectos citados nos forneceram subsídios que possibilitaram
a compreensão das características imutáveis da “Wiki” e a finalidade desse projeto
colaborativo. Ainda nessa fase inicial, tivemos o primeiro contato com as políticas e as
recomendações da Enciclopédia Livre, realizando uma leitura superficial sobre suas
explanações.
A partir dessa fase, realizamos a seleção do material que constituiu o corpus de
análise, observando a formulação dos objetivos, que, notadamente, se relacionam à
confiabilidade. Para a realização dessa tarefa, fizemos uma investigação mais minuciosa nas
políticas e recomendações, voltando nossas análises para a ocorrência de temáticas que se
relacionam à confiabilidade. A hipótese adotada foi a de que os elementos encontrados nas
políticas e recomendações possuem relação direta com as práticas adotadas na produção
colaborativa de conteúdo da Wikipédia e, por conseguinte, com a confiabilidade das
informações que o constitui.
A exploração mais detalhada e, por conseguinte, aprofundada do material analisado e
o relatório sistematizado com os dados iniciais encontrados na Wikipédia foram realizados em
um segundo momento. Essa interpretação preliminar forneceu dados importantes na etapa
final do processo de AC, que teve como fundamento a categorização temática das políticas e
recomendações, agregadas conforme o tema que as envolvem, são elas: Políticas de Produção
de Conteúdo e Informação, Equipe de Confiança e “Netiqueta”.
A terceira e última fase foi dedicada ao tratamento e à interpretação do conjunto de
dados colhidos nas fases anteriores. Foi nessa etapa que trouxemos à tona nossas
considerações sobre o que foi constatado na nossa investigação, por meio da interpretação e
da inferência formal dos dados obtidos, que foram analisados, interpretados e discutidos à luz
dos referenciais teóricos adotados.
7 A CONFIABILIDADE DA INFORMAÇÃO NA WIKIPÉDIA: A ENCICLOPÉDIA
LIVRE: POLÍTICAS E RECOMENDAÇÕES NA PRODUÇAO DE CONTEÚDOS
A interatividade possibilitada pela expansão e pelo avanço da tecnologia da
informação e da comunicação é um elemento de grande destaque na Wikipédia, a
Enciclopédia Livre. Sem sombra de dúvidas, o fator tecnológico com ênfase no aspecto
interacionista que, segundo Primo (2008), ocorre no nível multi, possibilita que esse endereço
virtual aumente o seu acervo a cada dia que se passa. Esse tipo de interação acontece quando
o colaborador interage com a tecnologia computacional para poder produzir algum tipo de
conteúdo. Além disso, esse mesmo usuário também tem a possibilidade de interagir com os
demais envolvidos no processo de produção colaborativa para que as páginas evoluam
qualitativamente, embora a interação entre os membros seja facultativa. Em relação a esse
assunto, a ênfase maior recai sobre o MediaWiki, software livre que permite a existência da
Wikipédia e da possibilidade de produção de conteúdo no ambiente virtual.
Pelo fato da troca entre os wikipedistas ser opcional e o teor dessa interação estar
centrado na objetividade das informações que devem fazer parte ou ser excluídas dos artigos e
verbetes, os colaboradores da enciclopédia constituem uma comunidade virtual do tipo não-
comunitária (LEMOS; LÉVY, 2010). Essa adjetivação só é possível porque a finalidade
maior da reunião desses usuários no espaço criado e mantido pela Wikimedia Foundation está
voltada para a manutenção da enciclopédia, em detrimento do envolvimento pessoal e
sentimental das pessoas participantes.
Na Wikipédia, o desenvolvimento do trabalho colaborativo imaterial desempenhado
pelos editores acompanha as características anteriores, enquadrando-se na tipologia intelectual
e linguística de Hardt e Negri (2003). Através do desenvolvimento dessas habilidades, a
enciclopédia valoriza as potencialidades intelectuais dos envolvidos. De maneira ampla, todas
essas caraterísticas acabam exibindo os contornos gerais dessa fonte de informação.
Além dessas características gerais, a Enciclopédia Livre possui especificidades que as
distinguem ainda mais das enciclopédias colaborativas existentes no ciberespaço, sobretudo,
no que se refere à sua produção e edição de conteúdos. São aspectos imutáveis que objetivam
manter as particularidades do projeto ao longo de sua existência, constituindo os Cinco
Pilares. Esses são formados pelo enciclopedismo, pela imparcialidade, pela licença livre,
pelas normas de conduta e pela liberalidade nas regras (WIKIPÉDIA, 2013).
No quesito do enciclopedismo, a Wikipédia (2013) afirma que dispõe de elementos
característicos das enciclopédias generalistas e especializadas e dos almanaques. Os
conteúdos produzidos nesse espaço devem seguir os mesmos padrões de produção das fontes
especializadas, adotando, inclusive, a imparcialidade, pilar de número dois. Esse pilar atua
sobremaneira na qualidade dos conteúdos, uma vez que quanto mais imparcial for o conteúdo
e quanto mais abordagens diferentes houver em uma página, melhor ele será considerado. É
interessante notar que, mesmo estando longe de ser uma fonte de informação formal, a
Wikipédia proclama o principal quesito dessa fonte: a neutralidade.
Outro pilar importante é a questão da licença livre, que possibilita que todos os
conteúdos disponibilizados nas páginas daquele endereço possam ser editados, modificados e
redistribuídos sem o aviso prévio, até mesmo de forma comercial. Tudo isso só possível
devido ao fato dessa enciclopédia ter como base fundamental a produção sob o fundamento
do copyleft, que proporciona que os usuários alterem as produções intelectuais e as deixem
abertas para alterações posteriores (LEMOS, 2004). Nessa enciclopédia colaborativa, a
abrangência dessas alterações é possível através do licenciamento do Creative Commons by-
sa (ou CC-By-Sa) (CREATIVE COMMONS, 2013). Dentre os pilares destacados pela
Wikipédia, esse é o que permite o espaço aberto de produção, alteração e distribuição dos
conteúdos que estão sendo produzidos de forma colaborativa.
As normas de conduta existem para determinar que os colaboradores mantenham um
relacionamento amistoso entre si, mesmo que compactuem com pontos de vistas divergentes
(WIKIPÉDIA, 2013). Em Lévy (1999), as normas de condutas que regulam a dinâmica de
funcionamento das comunidades virtuais são as “netiquetas”, responsáveis por assinalarem
que nem todos os tipos de ações são aceitáveis. A implementação delas está associada ao
envolvimento subjetivo e trocas afetivas. Cabe ressalvar que esse tipo de predicado é mais
perceptível nas comunidades virtuais do tipo comunitária (LEMOS; LÉVY, 2010). Mesmo o
objeto estudado sendo uma comunidade não-comunitária, o envolvimento emocional e a troca
afetiva entre os editores podem surgir, dada a possibilidade de interação existente.
O quinto e último quesito dos Cinco Pilares é a liberalidade das regras, que informa a
autonomia da Wikipédia em poder modificar a qualquer momento uma de suas regras e
condições de inserção de conteúdos, desde que a comunidade de editores concorde com as
mudanças propostas (WIKIPÉDIA, 2013). Esse fundamento está intrinsecamente associado à
noção da democracia que caracteriza as comunidades em Bobbio (1989), sobretudo no que se
relaciona à comunidade wikipedista. Esse pilar proporciona que essa fonte seja um espaço
sempre em transformação, conferindo maior dinamicidade ao projeto colaborativo.
Além dessas, a Wikipédia (2013) destaca uma série de informações que visam a
assegurar que o espaço aberto de interação esteja sempre voltado à construção de uma
enciclopédia colaborativa de qualidade, conforme destacam os Cinco Pilares. Essa diretriz é
intitulada de O que a Wikipédia não é, cujas ênfases são a Wikipédia não é uma fonte
primária de dados e não é uma revista científica de novos conceitos. Essas considerações nos
indicam que a Enciclopédia Livre está preocupada em construir seu próprio acervo com base
no conteúdo de outras fontes informacionais, que tenham adquirido relevância e
reconhecimento científico-social em outros meios de divulgação.
O conhecimento desses elementos é a base fundamental para a produção de conteúdos
na Wikipédia. Consideramos, entretanto, que a enciclopédia acaba se contradizendo ao
informar que, se houver alguma regra existente que iniba a evolução e a melhoria das páginas,
a mesma deve ser desprezada. Vejamos isso, no trecho a seguir:
Se envolver muito nas regras pode causar uma perda de perspectiva, então há
momentos que é melhor ignorar as regras. Mesmo que uma contribuição “viole” a
redação precisa de uma regra, ainda assim pode ser uma boa contribuição. Assim,
não é obrigatório aprender todas as regras para contribuir, apenas tenha bom senso
(WIKIPÉDIA, 2013, online, grifo de autor).
A presença desse tipo de aconselhamento em A Wikipédia não Possui Regras Fixas
acaba facultando o conhecimento das características mais específicas da Wikipédia, que
apontam os elementos para a sua produção de conteúdos. Contudo, nesse item, ela mesma
apresenta uma série de observações que devem ser consideradas antes de infringir uma das
regras, cabendo salientar a Justificativa. Essa pondera que, para uma regra ser ignorada, o
colaborador deve explicar o motivo que o levou a desrespeitá-la. Para que isso seja feito, é
preciso que o editor embase as suas argumentações, referenciando e fazendo menções aos
Princípios Fundadores, às políticas e aos interesses de uma enciclopédia. Ou seja, até para
infringir uma regra, o colaborador deve saber do que a mesma trata. Nessas alegações, devem
ser evitados discursos ofensivos, que possam denegrir ou afrontar os editores que possuem
religiões, culturas e etnias divergentes (WIKIPÉDIA, 2013).
Uma observação pertinente é que a Wikipédia deixa em aberto em que lugar de sua
estrutura essa Justificativa deve ser feita. Com a explicitação dessa incoerência, a própria
fonte de informação em estudo acaba cooperando para que a confiabilidade ganhe mais um
elemento a ser questionado, pondo em risco a qualidade e o compromisso com que as
atividades devem ser realizadas.
Constatamos que a Wikipédia lida com duas realidades conflituosas em sua estrutura.
Uma que permite a violação de suas regras, outra que traz em sua estrutura uma série de
indicadores que proporcionam mais sistematização e até padronização na produção dos
conteúdos. Isso pode acabar gerando desinteresse e até mesmo a violação dos apontamentos
indicados para uma produção colaborativa de conteúdos com elevado potencial de qualidade,
haja vista a possibilidade de serem rejeitadas com o aval da própria enciclopédia.
Ainda assim, consideramos que as políticas e as recomendações são basilares para o
aumento qualitativo e quantitativo dos artigos e verbetes. Preliminarmente, é preciso ponderar
que, sendo uma comunidade virtual, os subsídios trazidos nela são passíveis a mudanças. A
organização fundadora garante que qualquer tipo de objeção a essas concepções deve ser
encaminhado à Esplanada - local dedicado à discussão de novas propostas e ideias a serem
excluídas ou adotadas no projeto - para análise.
É justamente devido a essa maleabilidade que a comunidade wikipedista se aproxima
de uma comunidade democrática em que, como afirma Bobbio (1989), os direitos e deveres
podem ser questionados, sugeridos, negociados e igualitários. Ou seja, na Wikipédia, os
usuários tem a possibilidade de questionar, sugerir e modificar as políticas e as
recomendações que conduzem o seu funcionamento. Isso é extremamente relevante para que
essa enciclopédia tenha a possibilidade de se renovar e se atualizar a partir das contribuições
dos demais. Com essas características, a comunidade valoriza seu próprio modelo
democrático, em que a participação dos envolvidos é indispensável.
Em relação às políticas e às recomendações, vemos que a maior finalidade delas é
assinalar quais são os procedimentos a serem seguidos para uma produção de conteúdos com
qualidade, evidenciando sua relevância para os editores e para o projeto.
Embora sejam similares no que diz respeito à temática que abordam, as políticas e as
recomendações desempenham papeis diferentes. A Wikipédia (2013) afirma que as políticas
têm como fim descrever e esclarecer padrões que os colaboradores devem seguir, enquanto as
recomendações almejam esboçar os melhores procedimentos para seguir os padrões em
contextos cada vez mais específicos.
Em linhas gerais, os conteúdos das políticas e das recomendações são exibidos no
quadro abaixo. Após o conhecimento desses dados, aprofundamos as análises com base
nessas políticas e recomendações pelo fato de elas estarem diretamente e indiretamente
relacionadas aos indicadores de confiabilidade. Antes, precisamos reiterar que as informações
contidas neste quadro apresentam as temáticas que devem ser levadas em consideração para o
funcionamento do projeto colaborativo como um todo.
Quadro 3: Políticas e Recomendações da Wikipédia
Temática Central Políticas e Recomendações
Visão Geral: fornece
informações para a
compreensão desse projeto
colaborativo, apresentando as
práticas e os princípios a
serem seguidos pelos
participantes.
Políticas e Recomendações * Lista de Políticas * Lista de Recomendações
Princípios de Todo o
Projeto: informam aos
colaboradores e usuários
quais são os princípios que
estão na base de toda
enciclopédia, esclarecendo as
possíveis indagações quanto à
sua missão e funcionalidade.
O que a Wikipédia não é * Política de Edição * Consenso
Política sobre Padrão dos
Artigos: descreve os critérios
que devem direcionar os
usuários a produzirem os
conteúdos de forma coerente e
responsável.
Ponto de Vista Neutro * Verificabilidade * Nada de Pesquisa Inédita *
Biografia de Pessoas Vivas * Convenção de Nomenclatura * Eliminação
Políticas de
Comportamento: sugerem o
tipo de comportamento mais
adequado a ser adotado pelos
usuários com relação à
convivência em comunidade.
Normas de Conduta * Não Faça Ataques Pessoais * Não Dissemine a
Desconfiança * Não Faça Ameaças Legais * Propriedade dos Artigos * Guerra
de Edições
Guias de Comportamento:
apresentam os preceitos a
serem respeitados pelos
colaboradores para que
tenham um comportamento
amistoso e receptivo.
Presuma a Boa-Fé * Não Abuse da Wikipédia para Provar um Ponto de Vista
* Não Morda os Novatos * Subversão do Sistema * Abuso do Espaço Público
Guias de Conteúdo: expõem
os parâmetros a serem
observados no que se
relaciona à produção de
conteúdo.
Conflito de Interesse * Não Incluir Cópias de Fontes Primárias * Notoriedade
Guias de Edição: exprimem
as circunstâncias norteadoras
para a edição das páginas.
Seja Audaz * Ligações * Status Quo
Convenções de Estilo
(também denominado de
Livro de Estilo ou Manual
de Estilo): propõem a
uniformização dos artigos e
verbetes para que sejam mais
fáceis sua consulta, expansão
e manutenção.
Manual de Estilo
Fonte: Adaptado da Wikipédia, a Enciclopédia Livre (2013).
7.1 Princípios de Confiabilidade dos Conteúdos da Wikipédia
Inicialmente, precisamos compreender que as políticas da Wikipédia são constituídas
de elementos que devem contemplar aspectos que exprimem a importância em adotar
preceitos de confiabilidade em sua produção. Nesse conjunto, os mais pertinentes são
Imparcialidade (ou Neutralidade), Notoriedade, Nada de Pesquisa Inédita, Fontes Primárias,
Direitos Autorais e Verificabilidade.
O Princípio da Imparcialidade (ou Neutralidade) defende que a produção dos artigos
e verbetes seja o mais neutra possível, contemplando os pontos de vistas mais divergentes
possíveis (WIKIPÉDIA, 2013). Com isso, a Wikipédia pretende que a página possa ser
apreciada pelo máximo de pessoas que a utilizam como uma fonte de informação do
ciberespaço, validando os conteúdos nela existentes sob vários ângulos.
A preocupação dela com esse fator reflete a heterogeneidade das informações que
circulam na rede mundial de computadores e que deve fazer parte de sua produção de
conteúdos, abrangendo atores sociais com múltiplas religiões, etnias e culturas. Portanto, a
noção de Imparcialidade dessa fonte de informação tangencia o entendimento de Carpes
(2011), para quem os conteúdos digitais ampliam a diversidade e o conhecimento.
Compreendemos que seguir a Neutralidade e a Imparcialidade é indispensável em
qualquer tipo de produção de conteúdo, embora não tenham sido incluídos nas listas de
indicadores de credibilidade possíveis de adjetivar uma fonte de informação como fiável, em
especial, nas elaboradas por Tomáel et al (2001) e Fogg et al (2002a, 2002b). Mas, mesmo
sabendo que cumpri-los é uma tarefa muito difícil, quiçá impossível, a Wikipédia mostra seu
empenho em realizar um trabalho livre de interesses pessoais e particulares. Nessa fonte de
informação, esse desafio ganha dimensões maiores pela quantidade de editores habilitados a
colaborarem e pela quantidade de pessoas diferentes que a acessam, quebrando a barreira de
possuir apenas um público-alvo predominante, assemelhando-se às características do regime
de informação apontadas por González de Gomes (2002), especialmente, no que se refere à
possibilidade de produção, geração e transferência de conteúdos em um espaço composto por
inúmeros produtores e receptores.
Os indicadores Notoriedade, Nada de Pesquisa Inédita, Fontes Primárias e Direitos
Autorais são bastante similares quanto ao seu significado dentro desse projeto colaborativo.
Em linhas gerais, eles versam que os artigos e verbetes produzidos devem se basear em fontes
de informação primária, preservando os direitos autorais dos produtores das fontes utilizadas.
Além do mais, a inserção dos conteúdos a serem editados devem conter informações que
foram divulgadas em fontes informacionais reputadas e com notoriedade perante a sociedade.
Com a adoção desses elementos, a Wikipédia tenta proibir que, em suas páginas, sejam
divulgadas pesquisas científicas inéditas ou fatos que ainda não conquistaram reconhecimento
técnico, científico e social suficiente para ser abordado em seus artigos e verbetes.
Nesse universo de indicadores de confiabilidade, é relevante destacarmos a
advertência feita pela enciclopédia no caso da infração aos Direitos do Autor: “Conteúdo que
se encaixar na categoria de violação de direitos autorais será imediatamente apagado do
artigo. O editor que o inseriu será advertido e, em caso de reincidência, pode acabar
bloqueado” (WIKIPÉDIA, 2013, online). Para que os direitos autorais sejam respeitados, a
enciclopédia aconselha que editores façam uso das obras intelectuais para redigirem seus
próprios textos, citando as fontes primárias e suas respectivas referências, mas nunca
copiando um artigo tal qual seu original. Notemos também que esse tipo de atitude é
condenado em ambientes dedicados à produção formal do conhecimento, tais como centros de
pesquisa e universidades.
O fato é que, com a inserção do respeito aos direitos do autor, a Wikipédia evidencia
uma inquietação muito grande com o que deve ser publicado em suas páginas, agregando
critérios que são pouco mencionados por autores que versam sobre a credibilidade das
informações da web. Dedicar um espaço dentro da estrutura de funcionamento da
enciclopédia a essa questão é de fundamental importância porque a direciona à confiabilidade
das fontes de informações tradicionais mais reconhecidas.
Notamos que a presença dos significativos elementos de confiabilidade, como a
Notoriedade, Nada de Pesquisa Inédita, Fontes Primárias e Direitos Autorais, é bastante
visível na estrutura da Wikipédia. Embora não elencados por Fogg et al (2002a, 2002b) e
Tomáel et al (2001), esses critérios são fortes indicadores de credibilidade das fontes de
informação no ciberespaço. Avaliamos que a presença desses elementos coopera para que a
fonte de informação mostre sua idoneidade com os conteúdos que estão sendo
disponibilizados na web, aumentando ainda mais os seus indicadores de fiabilidade.
Outro elemento imprescindível corresponde à Verificabilidade, que prevê a existência
de citações e referências nas páginas para que possam ser verificadas em outras fontes de
informações fiáveis. Esse elemento se apresenta como um dos mais relevantes para a
Wikipédia no tocante à confiabilidade, pois os usuários, ao acessar as fontes primárias,
poderão averiguar a presença dos demais pré-requisitos que indicam a confiabilidade da fonte.
No ciberespaço, a questão da verificação das fontes ganha proporções ainda maiores
com a possibilidade de utilizar em suas referências os links, também denominado de Ligações
(nas recomendações). A utilização desses elementos nos artigos e verbetes da Wikipédia
aumenta a probabilidade de localizar Fontes Primárias, Notórias e Verificáveis. Assim como
na Enciclopédia Livre, Tomáel et al (2001) e Fogg et al (2002a, 2002b) consideram a
presença de links, referências e citações como elementos indispensáveis à questão da
confiabilidade.
Por outro lado, conforme Fogg et al (2002a, 2002b), a existência de links internos e
externos quebrados, que, por ventura, possam surgir nos artigos da Wikipédia, são uma
ameaça à credibilidade porque impossibilitam que os usuários e editores possam checar,
averiguar e confrontar as informações.
Na realidade, essa vulnerabilidade em que se enquadram os links está diretamente
inter-relacionada a uma das características mais específicas do ciberespaço: o hipertexto. A
permanência de um hipertexto estático, imutável e imóvel é inconcebível no ambiente virtual,
visto que uma especificidade desse meio é justamente a fluidez com que suas ligações podem
sofrer alterações sem aviso prévio (LÉVY, 1993; FREIRE, 2003). A falta de possibilidade de
mutação dos hipertextos atinge os Princípios da Metamorfose e da Exterioridade. Assim
sendo, o aparecimento de links quebrados é uma característica da própria natureza da
linguagem hipertextual (LÉVY, 1993).
Além disso, Tomáel et al (2001) limitam o número máximo de três clicks em um link
para que uma fonte de informação seja dita confiável. Essa sugestão, contudo, diverge,
conforme Lévy (1993), do Princípio da multiplicidade de encaixe das escalas, segundo o qual
o hipertexto contém inúmeras ligações. Sob o nosso ponto de vista, a quantidade clicks que
redirecionam a uma página na web é indiferente no tocante à confiabilidade porque a maior
relevância se encontra na presença destes e na possibilidade de verificar e até confrontar os
assuntos trazidos pelas páginas da Wikipédia, seja com temas iguais, semelhantes ou
diferentes. Lembramos que, se tais atributos permanecessem “engessados”, as demais fontes
existentes no ciberespaço iriam se desconfigurar como um endereço desse meio, tendo em
vista que perderia uma das três características do ciberespaço apontado por Lévy (1999): a
linguagem hipertextual.
Diferentemente de algumas fontes de informação alocadas no ciberespaço, a
possibilidade dos links permanecerem estáticos na Wikipédia ganha proporções menores
devido ao fato de as páginas estarem sempre abertas a novas e sucessivas atualizações, o que é
característico do sistema wiki (CUNNINGHAM, 2013). Na Wikipédia, esse diferencial
permite que a atualização dos links seja realizada pelos wikipedistas e pelos usuários, o que é
mais positivo ainda, pois qualquer pessoa que identificar um link desatualizado pode
contribuir para que a Verificabilidade seja mantida.
7.2 Itens de Confiabilidade das Páginas
As recomendações são compostas por itens que foram elaborados à luz das
experiências vividas pelos wikipedistas, com o intuito de que o projeto evoluísse. As
informações trazidas nesse espaço também objetivam minimizar as dúvidas dos novos
editores e evitar o surgimento de conflitos desnecessários. Como elas são baseadas nas
atividades dos editores, é preciso que haja revisão com o avançar dos tempos. Porém,
centramos naquelas que possuem alguma relação com a confiabilidade.
Um item que merece ser destacado é a Acessibilidade, que aparece como uma sugestão
para que as páginas redigidas agreguem elementos acessíveis a pessoas portadoras de
necessidades especiais. Na Enciclopédia Livre, a Wikipédia Audível possibilita que algumas
das páginas sejam acessadas através do áudio. Além dela, a ferramenta de Alto Contraste
possibilita aos usuários cadastrados a alteração do fundo da tela e da cor das fontes.
A preocupação da Wikipédia com a questão dos conteúdos acessíveis e inclusivos está
acima do seu domínio no ciberespaço, prova disso é que, além dos recursos próprios, ela
menciona uma série de outras possibilidades capazes de providenciar e exibir um conteúdo
acessível em outros espaços, como a acessibilidade nos navegadores Mozilla Firefox e
Windows. No entanto, precisamos ressaltar que essa realidade nem sempre esteve presente na
enciclopédia. Ocorre que, no ano de 2008, Silva (2008) avaliou que, no que concerne ao
quesito da acessibilidade, a Wikipédia poderia ser desconsiderada como uma fonte de
informação fiável porque as suas páginas disponibilizavam conteúdos inacessíveis a pessoas
portadoras de necessidades especiais. Cinco anos depois, constatamos que essa fonte de
informação passou a valorizar esse elemento dentro e fora de seu endereço virtual.
Com efeito, na Wikipédia, a acessibilidade possui um papel fundamental para a
credibilidade das informações porque vai tornando seus artigos e verbetes acessíveis a um
número maior de usuários, diferenciando-se das fontes impressas, extremamente excludentes.
Nesse sentido, Oliveira, Vidotti e Cabral (2003) afirmam que a acessibilidade é um dos
fatores responsáveis por conferir ao ciberespaço o título do mass-media da pós-modernidade.
Quanto mais expressividade e acesso houver em uma fonte de informação, aumentará ainda
mais a sua reputação positiva e o reconhecimento do valor que ela representa socialmente.
Tomáel et al (2001) consideram a acessibilidade um fator elementar para conferir
credibilidade às fontes de informações do ciberespaço. Sua presença na Enciclopédia Livre
agrega, portanto, mais um indicador de confiabilidade.
A Ortografia é um componente também presente nas recomendações, que define as
regras ortográficas adotadas nas páginas desse projeto colaborativo, especificamente, as
contidas no Acordo Ortográfico de 1990. Conforme Silva (2008) e Tomáel et al (2001), a
redação do conteúdos escritos, seguindo os propósitos da fonte e sua destinação ao público,
conferem maior grau de sistematização e qualidade nos conteúdos elaborados. Na
Enciclopédia Livre, essa questão é ainda mais sobressaliente pelo fato de as páginas estarem
sempre abertas e em constante construção, permitindo que artigos e verbetes sejam
constantemente revisados ortograficamente.
Entendemos que uma escrita coesa, coerente e formal favorece a designação de uma
fonte de informação como credível, denotando o comprometimento e a seriedade com que o
trabalho é realizado, e, principalmente, como a informação é tratada. Por outro lado, um
endereço com características opostas, vai perdendo a credibilidade gradativamente, por
mostrar falta de comprometimento, responsabilidade e revisão constante. Em razão disso, a
Wikipédia conta com o Manual de Estilo para formatação, adequação e uniformização dos
artigos e verbetes existentes em seu acervo.
Além da Ortografia e da Acessibilidade, Tomáel et al (2001) consideram a presença
de datas um indicador de alta relevância para a confiabilidade porque é através dela que os
usuários podem identificar quando a informação foi produzida e se ela vem sendo
constantemente atualizada. A Wikipédia possui esse tipo de informação, que fica disponível
para que o usuário visualize o dia, o mês, o ano e a hora em que o artigo sofreu a última
alteração. A existência desses dados possibilita que, através da Verificabilidade, ele possa
procurar informações com datas próximas para realizar a checagem, e, só após, utilizar o
conteúdo. Esses diversos fatores, por vezes, cooperaram de maneira indireta com a
confiabilidade de uma fonte de informação.
7.3 Políticas de Produção Colaborativa de Conteúdo na Wikipédia
Nas políticas e recomendações da Wikipédia é possível identificar a presença explícita
e implícita de diretrizes que se relacionam diretamente com a produção de conteúdos. Em
alguns casos, essas assertivas encontram-se bastantes dispersas e alocadas em seções que
minimizam a contribuição, o alcance da qualidade dos conteúdos e, consequentemente, a
confiabilidade da informação.
Na Wikipédia, a função desempenhada pelas políticas e pelas recomendações para
elaboração de artigos e verbetes assume o papel de políticas de informação, sobretudo, por
estarem associadas às características reiteradas por Bramam (2006), principalmente, quando
se considera a produção, a criação e o armazenamento das páginas dessa fonte de informação,
apresentando os critérios para sua permanência ou para sua exclusão.
A Política de Edição, que precisaria ser mais rigorosa e minuciosa do ponto de vista da
sistematização a ser seguida pelos colaboradores, é fluida, pouco precisa e deixa a desejar no
que se refere à confiabilidade propriamente dita. Na verdade, sua preocupação está mais com
a produção, seja ela feita como for, do que com a credibilidade do que está sendo produzido.
Ela argumenta em prol da inserção de versões “embrionárias”, considerando que a mesma irá
evoluir com o passar dos dias, podendo surgir, posteriormente, uma página com índice de
qualidade muito elevado. Essa política estimula os editores a serem audazes ao identificarem
erros e incoerências nas páginas redigidas por outros participantes, aconselhando-os a os
corrigirem imediatamente, resolvendo-os, assinalando-os ou removendo-os (WIKIPÉDIA,
2013).
Contrariamente ao que acontece na prática, as assertivas trazidas pela Wikipédia
(2013) nessa política dão a entender que a sua produção de conteúdo tem como fundamento
apenas a interação e o livre arbítrio de inserir e produzir qualquer tipo de conteúdo em seu
domínio, porém, isso acontece de forma diferente nessa fonte de informação.
Dentre os elementos mencionados capazes de prover a confiabilidade, a Política de
Edições exibe uma falha ao mencionar apenas que os artigos sejam neutros, desconsiderando
a importância dos Critérios de Notoriedade, Fonte Primária e Nada de Pesquisa Inédita e
Direitos Autorais. Compreendemos que ela deveria ser mais completa para direcionar e
precisar mais claramente como realizar inserções de conteúdos fiáveis e credíveis. No entanto,
o único critério mencionado é a Neutralidade, que resulta na sua supervalorização em
detrimento dos demais. Essa política deveria inserir também os demais elementos indicadores
de credibilidade, como uma forma de impulsionar a produção credível dos artigos e verbetes.
Dito isso, vemos que as Políticas de Edição não trazem nenhum dos aspectos elencados por
Bramam (2006), no domínio da produção dos conteúdos e da edição dos artigos e verbetes
como atividades que visam a melhoria desses através da edição contínua dos demais
colaboradores.
Em contrapartida, a Política de Eliminação se relaciona ao processo de
armazenamento ao qual a autora se refere ao destacar a “destruição” dos conteúdos com baixo
nível de fiabilidade (BRAMAM, 2006). Esse tipo de política age excluindo as páginas que
devem ficar fora do acervo da Wikipédia por serem comprometedoras ou por desobedecerem
algum dos seus princípios relatados nas políticas ou recomendações (WIKIPÉDIA, 2013). A
maior finalidade consiste, em última análise, em fazer com que os conteúdos existentes na
enciclopédia colaborativa sejam fieis aos objetivos de fonte de informação.
As páginas que forem detectadas com erros ou incoerências muito graves e
impossíveis de serem corrigidas devido à complexidade do seu teor podem ser assinaladas por
qualquer usuário (anônimo ou registrado) para eliminação. No entanto, apenas os
eliminadores e administradores têm a permissão para excluí-las. Mas, até que essa tarefa seja
feita, o conteúdo fica indisponível para os demais (WIKIPÉDIA, 2013).
Outra que age no controle do conteúdo é a Política de Bloqueio. Diferentemente das
anteriores, essa é a mais criteriosa em suas ações porque sua maior finalidade é inibir e punir
as ações mal-intencionadas de determinados colaboradores (autenticados ou anônimos) que
objetivam distorcer ou invalidar um conteúdo de forma proposital ou não. Na Wikipédia, esse
tipo de ação é denominado de vandalismo. Fragoso (2009) entende que esse tipo de atitude
ocorre no ciberespaço devido às suas próprias características de ser um ambiente aberto a todo
tipo de manifestação, inclusive as más. Diante dessa possibilidade disso acontecer, a
Wikipédia exibe o seguinte alerta no Aviso Geral:
A Wikipédia é uma enciclopédia online de conteúdo aberto, isto é, uma associação
voluntária de indivíduos e grupos que estão desenvolvendo um repositório comum
do conhecimento humano. Sua estrutura permite que qualquer indivíduo com uma
conexão à Internet e um navegador web possa alterar o conteúdo aqui encontrado.
Portanto, por favor, esteja ciente de que nenhum conteúdo aqui encontrado foi
necessariamente revisado por profissionais capacitados especificamente nas áreas de
conhecimento necessárias, de modo a poder providenciar informações completas,
precisas e credíveis sobre qualquer assunto na Wikipédia.
Isso não quer dizer que não encontre muitas informações precisas e valiosas na
Wikipédia; no entanto, tenha clara noção de que a Wikipédia NÃO PODE
garantir, de maneira nenhuma, a validade das informações aqui encontradas. Elas podem ter sido mudadas, vandalizadas ou alteradas por alguém cuja opinião
não corresponda ao “estado do conhecimento” na área particular que está interessado
em aprender (WIKIPÉDIA, 2013, online, grifos do autor).
Diferentemente de outros espaços que indispõem de mecanismos para resolver essas
situações, a Enciclopédia Livre faz uso dessa política que, na realidade, funciona como uma
espécie de restrição e punição ao usuário infrator. A Política de Bloqueio impossibilita que o
vândalo possa produzir e editar os artigos e verbetes da enciclopédia por um tempo
determinado, que varia de acordo com o grau de infração cometida, podendo ser de uma hora
ou até definitivamente, caso haja consenso2.
2 Diz-se que um artigo atingiu o consenso quando o teor do mesmo manteve-se livre de reversões e contestações
feitas por outros editores, ou seja, a ausência de questionamento torna um artigo aprovado pelo consenso, assim
como a opinião da maioria.
A Wikipédia (2013) informa que, além das penalidades serem diferentes, os
vandalismos podem ser leves ou destrutivos. Os primeiros correspondem àqueles em que há
inserções repetitivas de conteúdos impróprios e inadequados ou quando o editor retira
arbitrariamente informações válidas do ar. Os segundos são aqueles em que as infrações são
cometidas conscientemente, com a intenção de afrontar um dos princípios da Enciclopédia
Livre.
Diante da possibilidade de infringir os regimentos e sofrer as sanções internas
previstas, é preciso que a Política de Edição explique melhor quais são os critérios que os
editores precisam seguir para evitar o bloqueio do seu IP (Protocol Internet). Nesse aspecto,
os colaboradores devem conhecer e seguir os Cinco Pilares, O que Wikipédia não é e outros
procedimentos que constam espalhados nas políticas e recomendações. Sendo assim,
conforme alerta Jenkins (2008), os editores devem estar atentos ao tipo de informação que
deve ser compartilhada nos domínios da Wikipédia.
Um parâmetro importante é a noção da Proibição dos Proxies Anônimos, isto é, os
identificadores de IP anônimos são proibidos de serem utilizados pelos usuários que inserem
conteúdos em todos os projetos da Wikimedia Foundation. O “Proxy é um servidor
intermediário que atende a requisições repassando dados à frente do cliente: um usuário
(cliente) conecta-se a um servidor Proxy, requisitando algum serviço, como um arquivo,
conexão, página web, ou outro recurso disponível em outro servidor” (WIKIPÉDIA, 2013,
online.). Dessa forma, IPs que estão com os proxies ocultos conseguem se manter anônimos
na Wikipédia. Nada os impede de ler os artigos e verbetes, porém, a restrição é apenas para a
produção de conteúdo, pois o usuário fica impedido de realizá-la.
A possibilidade de identificar o IP dos wikipedistas através dos proxies mantém uma
relação distante com a questão levantada por Tomáel et al (2001), ao afirmar que a
identificação de quem produz as informações é um fator preponderante para a confiabilidade.
Entretanto, no caso da Wikipédia, a identificação dos colaboradores através dos IPs é
relevante apenas para os editores que podem punir os atos de vandalismos através da Política
de Bloqueio. Devido a isso, a identificação dos proxies é mais pertinente para os integrantes
da comunidade, que têm a possibilidade de visualizar e até controlar o conteúdo produzido
pelos demais colaboradores do que para os usuários. Dessa maneira, a identificação do proxy
possibilita que os editores da Wikipédia “conheçam” os usuários através da identificação do
seu IP. Esse elemento visa a possibilitar à fonte de informação o “conhecimento” de todo seu
corpo de editores, assegurando também que os mesmos sejam punidos em caso de infração.
Todos esses elementos trazidos, que sugerem fatores de produção, processamento e
armazenamento de conteúdos na Wikipédia, acabam se configurando como uma extensa
política de informação, validada somente na dinâmica de funcionamento da Enciclopédia
Livre. Trata-se de uma política de informação específica que objetiva tecer considerações
capazes de fazer com que a produção de conteúdos aconteça de forma sistematizada e
padronizada, na medida do possível, sendo regida por uma série de preceitos, cuja efetividade
só tem funcionamento no âmbito da Wikipédia. Por todos esses atributos, a política de
produção de conteúdos na Enciclopédia Livre assume todas as propriedades da política de
informação específica, que, conforme Branco (2005), só tem validade em uma localidade
específica porque foi pensada e proposta à luz das particularidades que a envolvem. Isso
implica que as políticas e recomendações da Wikipédia só podem obter êxito se forem
utilizadas nessa fonte de informação. Assim, todas as considerações trazidas possuem pouca
possibilidade de sucesso fora daquele espaço.
Compreendemos que a existência de sua própria política de informação na Wikipédia é
um fato extremamente positivo porque ela foi pensada com foco em sua dinâmica e estrutura
de funcionamento, valorizando seu próprio regime de informação, pensando tanto no fator
tecnológico quanto no fator humano.
Notamos que uma das vantagens da Wikipédia possuir sua própria política de
informação é que há menor probabilidade delas ficarem obsoletas e em desarmonia com o
desenvolvimento de suas atividades. A possibilidade de revisar, atualizar ou excluir
potencializa os poderes da comunidade de editores e exalta a autonomia da mesma, se
comparada à política de informação do tipo básica em que as proporções são maiores, por
estarem lidando com ações em nível macro e com maior grau de complexidade (BRANCO,
2005). Dessa maneira, as políticas de informação do tipo específica possuem maior
flexibilidade por estarem associadas a uma realidade singular e, principalmente, por se situar
em nível micro.
A partir de Aun (1999) e Freire (2008), outro ponto que vale ser ressaltado é que o
estabelecimento da política de produção de conteúdos só foi possível porque a Wikimedia
Foundation usa uma infraestrutura tecnológica voltada à produção colaborativa de conteúdos
e informação. Assim, as diretrizes de produção de conteúdo e informação da fonte
colaborativa em questão trazem três importantes elementos enfatizados por Unger (2006), a
saber, a conectividade, a infraestrutura tecnológica e a política de informação. Nesse último
aspecto, Aun (1999) e Freire (2008) asseveram que a produção de conteúdos é que devem ser
privilegiada.
Outro aspecto extremamente positivo é que a Wikipédia pensou na sua produção de
conteúdo englobando fatores que direcionassem suas páginas à confiabilidade. Desse modo,
os conteúdos produzidos também devem conter elementos de fontes de informações reputadas
e reconhecidas. Essa iniciativa da Wikipédia é bastante relevante, pois mostra a inquietação
com a produção de conteúdo e com a qualidade da mesma.
A questão da credibilidade das informações da web deveria ter uma iniciativa que
surgisse do cenário amplo para o mais particular, sendo discutidas e apresentadas inicialmente
nas instituições e nos órgãos regulamentadores como parte integrante e indissociável das
políticas de informação do tipo básica que Branco (2005) traz à tona. Caberia a essas
instituições implementá-las nos programas brasileiros relacionados à inclusão digital,
principalmente nos que têm os softwares livres como foco, uma vez que estes vem ganhando
mais expressividade na administração pública nos últimos anos. Os envolvidos estariam
ingressando na Sociedade da Informação produzindo seu próprio conteúdo como sugere
Freire (2008), com o diferencial de ser um conteúdo com elementos de fiabilidade
aconselhados pelas políticas de informação básica.
A adoção dessa atitude seria primordial para que a confiabilidade e os seus indicadores
passassem a ser concebidos como legitimadores e reguladores da produção de conteúdo,
sendo indispensáveis seus debates e suas implementações de fato. Assim, a partir do
conhecimento formal da relevância dos fatores de credibilidade, poderia haver maior
reconhecimento e adoção por parte das iniciativas específicas. Notadamente, seria uma
possibilidade, e ficaria a cargo de inciativas específicas fazerem os ajustes conforme suas
peculiaridades.
7.4 O Reconhecimento do Trabalho Colaborativo: a “Equipe” de Confiança
Na comunicação mediada por computador, muitos projetos difundem uma filosofia
centrada no formato livre e no modelo aberto de produção colaborativa, seguindo as
principais premissas da web 2.0, como destacado no Quadro 1 (Gerações da Web). A
Wikipédia difunde esse mesmo discurso, mas, na realidade, ocorre de maneira diferente.
Essa comunidade virtual reconhece o trabalho colaborativo imaterial realizado pelos
wikipedistas mais envolvidos no projeto, proporcionando a concessão de privilégios especiais
aos que estão engajados em aumentar o nível de fiabilidade dessa fonte de informação.
Mediante esse fato, podemos perceber que a Wikipédia acaba tendo dois tipos de editores: os
de confiança e os que ainda não conseguiram esse status. Conforme Haythornthwaite (2009),
eles compõem, respectivamente, o PPL, que são os menos envolvidos com o projeto, e o PPP,
que possuem mais conhecimento do projeto colaborativo por dedicarem mais tempo a ele.
Esses últimos é que constituem a “equipe” de confiança. Entretanto, essa divisão entre
usuários não quer dizer que a Wikipédia valorize mais um grupo do que outro.
Por favor, não morda os novatos. Ou, em outras palavras: por favor, não os
assuste. A Wikipédia melhora bastante com o trabalho pesado dos mais experientes,
mas também com as contribuições frequentes de muitos anônimos, recém-chegados
e curiosos das quais muitas vezes nem nos damos conta (WIKIPÉDIA, 2013, online,
grifo do autor).
Então, a noção de interação igualitária em comunidades virtuais discutida por Castells
(1999) é parcialmente refutada na Enciclopédia Livre, na medida em que nem todos os
integrantes têm as mesmas possibilidades de realizar as tarefas iguais. Nessa comunidade,
observamos essa incongruência mais positiva do que negativa porque permite que os
integrantes mais atuantes se destaquem entre os demais, conseguindo “poderes especiais”,
embora a Wikipédia também os negue. No caso dessa fonte de informação, a ideia de
interação e igualdade só têm validade dentro do próprio grupo do PPL, em que se inserem os
editores com baixo nível de trabalho especializado.
Mesmo sendo uma comunidade virtual que dispensa a competição entre seus
participantes, essa possibilidade de ascensão “hierárquica” desencadeia uma espécie de
competição saudável entre os wikipedistas, incentivando o progresso do trabalho colaborativo.
Diante disso, na percepção de Lima (2010), a Wikipédia vai agregando característica de uma
comunidade cordial pelo fato de os colaboradores estarem engajados em construir uma
enciclopédia colaborativa online e, ao mesmo tempo, competitiva, embora essa competição
seja implícita. Ocorre que a construção de uma boa reputação em comunidade pode estar
relacionada à mudança de status do colaborador.
De fato, constatamos essa sistemática, pois, na Wikipédia, apenas o editor
comprometido e responsável pode possuir um “cargo” de confiança, através da solicitação do
Estatuto, que explica os pormenores da nova função. Identificamos a presença de apenas
cinco deles, quais sejam administradores, reversores, burocratas, autorrevisores e
eliminadores. Pertinentemente, após a conquista desses “cargos”, não identificamos a
presença de mais nenhum outro que possibilite a mudança de nível dos editores de confiança.
Isso implica que, em termos hierárquicos, as ascensões inexistem. O que ainda pode acontecer
é a troca de “cargo” no mesmo nível no PPP.
Os administradores são responsáveis por eliminar, proteger, desproteger, bloquear,
desbloquear páginas e endereços de IP, ocultar vandalismos de páginas recentes, entre outros.
Esses são os únicos “cargos” de confiança que possuem o privilégio de serem imunes ao
bloqueio (WIKIPÉDIA, 2013). Apesar de todas essas prerrogativas, a enciclopédia continua
negando veementemente a existência deles:
Os sysops [ou administradores] não possuem “autoridade” em especial, sendo,
portanto, iguais a todos os outros em termos de responsabilidade editorial. Alguns
wikipedistas consideram os termos “operador de sistema” e “administrador”
inadequados, uma vez que apenas indicam editores da Wikipédia a quem foram
levantadas restrições de segurança e desempenho a umas quantas funções do
software porque pareceram ser dignos de confiança (WIKIPÉDIA, 2013, online,
grifos do autor).
Como o próprio nome sugere, os reversores são responsáveis por reverter as edições
de todos os usuários, possuindo conhecimentos que possam discernir vandalismos explícitos
de outras ações. Existem atualmente 153 reversores e 40 administradores, totalizando a
quantia de 193 editores habilitados a exercerem as atividades destinadas a essas funções
(WIKIPÉDIA, 2013).
Os burocratas constituem mais um “cargo” existente na estrutura da Wikipédia, cuja
finalidade é ter acesso às ferramentas de renomeação de contas e gestão de privilégios
(WIKIPÉDIA, 2013). Em caso de mau uso do direito concedido, o burocrata poderá ser
destituído do “cargo”, perdendo o Estatuto.
A Wikipédia conta ainda com os autorrevisores, que são os administradores,
eliminadores e usuários do grupo de autorrevisores, que realizam a marcação das próprias
produções. Para fazer parte desse grupo, os colaboradores devem ter conhecimentos dos
meandros das políticas e recomendações estritamente relacionadas ao bom funcionamento do
projeto colaborativo. Atualmente, a enciclopédia conta com de 387 autorrevisores
(WIKIPÉDIA, 2013).
Diante da sua importância, percebemos que uma das maiores falhas da Wikipédia é
deixar oculta a existência da “equipe” de confiança. Segundo Tomáel et al (2001) e Fogg et al
(2002a, 2002b), esse elemento é um forte indicador de confiabilidade, pois torna público a
existência dos responsáveis pelos conteúdos. Em certa medida, a ausência de informações
visíveis que esclareçam a existência, a missão e as tarefas feitas pela “equipe” de confiança
coopera para que seu modo aberto de produção seja a cada dia mais questionado pelos
indivíduos que desconhecem o processo de produção de conteúdos nessa fonte de informação,
associando o modelo de elaboração de conteúdos da Wikipédia à baixa credibilidade das
informações.
Ao passo em que tolhe esse tipo de informação, a Enciclopédia Livre rompe com duas
características importantes na colaboração enfatizada por Chesterman (2001): transparência e
a comunicação. Essas, em linhas gerais, preveem que todos os envolvidos conheçam o
trabalho que os demais estão realizando e que, se necessário, possam interagir, para melhorar
o andamento do projeto. Além disso, o não esclarecimento da existência de uma equipe de
confiança também acaba possibilitando que haja questionamentos quanto à clareza do projeto
e à confiabilidade das informações, tanto por parte dos colaboradores quanto dos usuários
consulentes.
Compreendemos que a presença de uma “equipe” de confiança endossaria ainda a
confiabilidade das informações desse endereço virtual, aproximando-o das características das
fontes de informações impressas, por exemplo, que possuem uma equipe editorial responsável
por selecionar que tipo de informação deve conter em determinada publicação.
Continuamente, Fogg et al (2002a, 2002b) consideram que a exibição de imagens
profissionais e pessoais, mostrando o cotidiano da vida da equipe, é um critério positivo que
relaciona o endereço à credibilidade. Porém, consideramos esse aspecto completamente
desnecessário na Wikipédia, sobretudo pela quantidade de editores que constituem seu corpo
de “profissionais”, cabendo mencionar todos do PPP e todos PPL. Caso, essa fonte adotasse
esse tipo de indicador de fiabilidade, estaria desviando sua principal finalidade em construir
uma enciclopédia online e colaborativa, tornando seu endereço um blog ou um flog, violando
uma das informações contidas no item O que a Wikipédia não é. Igualmente, o pilar do
Enciclopedismo seria afetado por perder seu caráter enciclopédico. Haveria também a quebra
de uma das características mais marcantes do sistema wiki, isto é, a produção de conteúdos
sem a necessidade de se registrar, assegurando o “anonimato” dos editores (CUNNIGHAM,
2013).
A adoção desse critério poderia causar uma desordem geral nesse projeto colaborativo
idealizado pela Wikipédia Foudation, inclusive levá-lo ao fracasso, principalmente, porque
contribuiria para que os demais apontamentos trazidos pelas políticas e recomendações
fossem desacatados pela maioria dos seus editores.
Os critérios para participar da “equipe” de confiança são bastante rígidos e estão
centrados na qualidade e na quantidade de artigos e verbetes editados pelo colaborador, que
pode variar de 600 até duas mil edições, dependendo do “cargo”. A qualidade também se faz
presente, pois essas páginas devem estar disponíveis no Domínio Principal. Ressalvamos que,
para que um artigo ou verbete faça parte dessa página, o mesmo deve ter sido reconhecido
pela comunidade como uma página com alto nível de precisão e qualidade, através da
Votação. Têm Direito ao Voto apenas os usuários cadastrados no mínimo três meses antes da
votação, com uma quantia superior a 300 edições também no Domínio Principal.
Porém, possuir todas essas características não quer dizer que o editor seja agraciado
com a concessão do “cargo”. Para isso, o mesmo deve encaminhar uma solicitação para se
submeter ao Sufrágio, processo em que o colaborador manifesta o interesse em desenvolver
alguma função específica. Após o pedido ser feito para a obtenção do Estatuto, algum
wikipedista que possui esse mesmo “cargo” fará a avaliação com base nas arguições, nos
requisitos solicitados e na confiança. Na Wikipédia, a confiança recobre o entendimento de
Lopes (2006), ao considerar a confiança como a relação entre impressões e sentimentos entre
duas pessoas. Essa se consolida na subjetividade em que um componente da “equipe” de
confiança tem boas impressões acerca do colaborador que está pleiteando um “cargo”. De
nada irá adiantar o candidato possuir todos os requisitos objetivos, se o mesmo esbarrar na
confiança, quesito altamente subjetivo.
Assim, por mais que um editor possua uma ótima reputação perante os demais, o que
define o seu merecimento em conquistar algum Estatuto é a confiança estabelecida entre ele e
o usuário responsável por aceitar ou rejeitar seu pedido. Compreendemos, contudo, que, por
ser uma comunidade, essa decisão deveria refletir a decisão de mais de um avaliador. Assim
seria uma forma mais democrática de ajuizar a concessão de um “cargo” a um colaborador
solicitante.
Em meio à confiança e à reputação, está a experiência, que estipula o tempo mínimo
de tarefas realizadas no projeto para que o indivíduo possa tentar fazer parte da “equipe” de
confiança. A exigência desse critério está no que Lévy (1998) denomina de saber-viver e
viver-saber, estando relacionado à valorização das experiências conquistadas nos meandros da
Wikipédia, adquiridas com base nas peculiaridades de suas próprias dinâmicas internas, com
as transformações desenvolvidas ao longo do tempo e com os conflitos e suas possíveis
soluções.
O reconhecimento da experiência dos wikipedistas legitima as boas intenções do
usuário com o projeto, valorizando a tríade confiança-reputação-experiência. Isso nos leva a
compreender que seja mais um fator contribuinte para que o colaborador permaneça fazendo
parte da equipe de editores, exibindo um indicador de confiabilidade que está nas entrelinhas
da Wikipédia.
As ações da “equipe” de confiança estão intimamente relacionadas às políticas que
estão minimamente relacionadas ao controle de conteúdos, uma vez que apenas os detentores
de “cargo” de confiança podem eliminar ou reverter artigos e verbetes. As obrigações, os
deveres e os direitos dos burocratas, por exemplo, são referidos nas Políticas de Burocrata,
cuja principal tarefa é assegurar a escolha de usuários que garantam o bom funcionamento da
enciclopédia. Devemos observar que alguns dos “cargos” indispõem de políticas específicas
por estarem associados às atividades mais complexas e abrangentes, exigindo conhecimentos
mais aprofundados de grande parte das políticas e recomendações propostas pela Wikipédia,
como por exemplo, os administradores e reversores.
O trabalho da “equipe” de confiança é exercido também com o auxílio da tecnologia,
como a Política de Robôs (Bots), que abarca o uso de scripts ou programas computacionais
para fazerem tarefas automatizadas, auxiliando na execução de edições repetitivas e em série.
“Entretanto, não são precisamente [os] robôs, que fazem tudo sozinhos, mas sim agentes de
manipulação de artigos, que obedecem a instruções claras e precisas do programador por ele
responsável” (WIKIPÉDIA, 2013, online). Aos usuários bots ou (robôs) são negados os
direitos à votação nas decisões da comunidade e nas discussões sobre o projeto. A realização
de atividades específicas de um bot deve estar em sintonia com as políticas e as orientações
do projeto. Diferentemente dos demais Estatutos, para os bots, a exigência feita é que o
usuário seja registrado (WIKIPÉDIA, 2013).
O desempenho conseguido com os bots se deve à própria característica do MediaWiki¸
que corresponde a um sistema convergente, em que existe a possibilidade da tecnologia
providenciar a exclusão de páginas que possuam reincidentes (CUNNINGHAM, 2013).
Os indicadores de confiabilidade na Wikipédia estão associados a fatores humanos e
tecnológicos, visando à maior rigidez e credibilidade dos conteúdos que devem fazer parte da
Wikipédia. Em relação ao fator tecnológico, cabe mencionar algumas ferramentas que somam
ao quesito da confiabilidade.
Os search engines indicados por Fogg et al (2002a, 2002b) poderiam trazer
informações extras a respeito de assuntos específicos que ainda não foram incorporados à
Wikipédia. A presença desse elemento seria um indicador importante de fiabilidade porque ele
agiria incisivamente em uma das prerrogativas mais elementares da Enciclopédia Livre, a
Verificabilidade, facilitando o trabalho de checagem e averiguação por parte dos usuários. A
presença dessa ferramenta tecnológica poderia trazer conteúdos extras que estão ausentes nas
referências e nas citações das páginas, ou poderia trazer as mesmas informações,
corroborando o que está presente nela. A adoção desse mecanismo na Wikipédia seria
providencial, pois tornaria o trabalho de verificação menos trabalhoso e menos dependente
das citações, referências e links.
Uma das inovações mais surpreendentes da Wikipédia em 2013 foi a inserção de um
sistema de reputação que avaliava o nível de credibilidade das páginas sob os quesitos
objetividade, abrangência e organização, qualidade da redação do texto e confiabilidade. A
avaliação, que se dava por pontos, permaneceu por apenas seis meses nas páginas dessa fonte
de informação colaborativa.
Por estar voltado à avaliação por pontos, o sistema de reputação da Wikipédia seguia a
dinâmica apresentada por Lima (2010), na medida em que quanto mais avaliações um aspecto
recebesse, mais confiável ele poderia ser considerado. Todavia, entendemos que a maior
finalidade desse sistema de reputação era exibir que aspectos os artigos e verbetes ainda
precisavam evoluir. Através dos resultados, os próprios usuários poderiam, inclusive, editar a
página, melhorando os aspectos de baixa qualidade. Tudo isso só era possível devido à
arquitetura descentralizada, que possibilitava que os resultados ficassem visíveis enquanto o
sistema de reputação estive em pleno funcionamento (LOPES, 2006).
Se o sistema de reputação da Wikipédia estivesse vigorando, seria um importante
indicador de credibilidade das informações, principalmente por estar centrado na opinião e
nas impressões da coletividade que constrói e que usa essa fonte de informação (LOPES,
2006). A permanência dos sistemas de reputação poderia auxiliar ainda mais no quesito
confiabilidade com a junção dos critérios indicados por Serra (2006), a saber, pertinência e
credibilidade, que indicam que a responsabilidade por designar uma informação como
confiável é uma tarefa dos próprios usuários, com base no que estão procurando. A reputação
dos aspectos avaliados poderia servir de aporte à tomada da decisão dos usuários em
consonância com os critérios considerados por Serra (2006).
Advertimos que, caso a Wikipédia cogite a possibilidade de voltar com o sistema de
reputação, o mesmo deve estar adequado às especificidades e às particularidades que ela tem.
Estimamos que uma certa vulnerabilidade pairava sobre o sistema de reputação baseado em
pontos que operava naquela fonte de informação, haja vista a possibilidade de fraude por parte
dos próprios wikipedistas, que poderiam avaliar positivamente suas edições sucessivas vezes
para conferir o status de confiabilidade muito alto, muitas vezes, irreais.
Por isso, seria pertinente a implementação de um sistema de reputação que pesasse a
possibilidade supracitada. A ação de Cruz e Motta (2006) foi mais adequada e poderia ser
tomada como um bom exemplo. Antes de propor um sistema de reputação para a comunidade
virtual acadêmica da UFRJ, as autoras investigaram a realidade que envolvia essa
comunidade. Caso a Wikipédia volte a fazer uso desse sistema, seria conveniente alguma
medida que limite o número de votações por pessoa, seja por login e senha ou restringindo um
número máximo e mínimo em um determinado período de tempo. Essa atitude traria um
importante indicador de confiabilidade, principalmente por restringir, na medida do possível,
que os wikipedistas burlassem o sistema, votando consecutivamente em seus artigos e
verbetes para designá-los como confiáveis.
7.5 Wikiquette: A “Netiqueta” da Wikipédia
Na Wikipédia, os colaboradores têm a possibilidade de se inter-relacionar através dos
espaços abertos de interação (Página de Discussões) para debaterem assuntos relativos à
atualização e à melhoria das páginas. Nesse espaço, podem acabar surgindo divergências de
opiniões, uma vez que a comunicação em rede produz e reproduz simbolicamente palavras,
sons e gostos de acordo com os humores dos indivíduos (CASTELLS, 1999). O surgimento
desses embates é ainda mais potencializado devido à característica mais marcante do
ciberespaço em poder aglomerar um número de atores sociais cada vez mais diferentes, com
pontos de vista igualmente discrepantes, gerando fluxo de informações “personalizadas” e
aceitáveis apenas a determinados nichos sociais.
Essa interação “despadronizada” pode desencadear conflitos ideológicos e filosóficos,
que, na visão de Medeiros (2003), é algo extremamente natural, pois as comunidades virtuais
lidam com os mesmos dilemas que as comunidades físicas. Sob o nosso ponto de vista, o que
muda, na verdade, são as formas distintas com que esses embates emergem e os mecanismos
envolvidos usados para a resolução desses problemas.
Na condição de um ambiente virtual, com espaço aberto voltado à interação de seus
usuários, a Wikipédia é vulnerável a ter esses embates internos. Ciente da grande
possibilidade disso ocorrer em sua estrutura e atrapalhar o desenvolvimento de suas atividades
colaborativas corriqueiras, essa fonte de informação possui uma série de pareceres em sua
lista de recomendações que objetiva coibir, minimizar ou resolver os conflitos existentes entre
os wikipedistas.
Conhecida popularmente entre os internautas como “Wikiquette”, a “netiqueta” da
Enciclopédia Livre informa os pareceres comportamentais mais aceitáveis quando as
divergências surgem. De acordo com Lévy (1999), é a “netiqueta” que trata das atitudes
comportamentais mais adequadas a serem adotadas no ciberespaço para que a vivência
comunitária tenha mínimos atritos. É a “netiqueta” que dita o tipo de informação que deve
circular nos agregados sociais online.
No item Normas de Conduta, por exemplo, estão presentes explanações sobre como os
colaboradores devem se comportar entre si diante de uma discussão. Nela, a enciclopédia
sugere que os editores sejam educados e que evitem conflitos de opiniões desnecessários,
sendo civilizados e evitando insultos (WIKIPÉDIA, 2013). A partir dessas sugestões, fica
claro o quanto a formação de uma comunidade virtual pode, mesmo com seu caráter não-
comunitário, acabar desencadeando relações sentimentais e envolvimento no emergir das
interações.
A Wikipédia (2013, online) faz um ordenamento bastante peculiar e mostra a sua razão
de existir: “Não faça suposições e/ou afirmações negativas sobre outras pessoas. Até ao
presente momento, a Wikipédia tem sido extraordinariamente bem sucedida baseando-se
numa política de total liberdade de edição. Todos os que aqui vêm, querem colaborar e
escrever bons artigos”. No mesmo fragmento, podemos constatar as duas grandes
preocupações da enciclopédia: a produção do conteúdo e o bom comportamento entre os seus
participantes. Indiretamente, essa fonte de informação compreende que um comportamento
adequado ou inapropriado acaba refletindo substancialmente na qualidade das páginas desse
endereço virtual.
Perante essa constatação, a “netiqueta” da Wikipédia tem uma finalidade dupla: manter
a ordem do projeto, proporcionando uma convivência comunitária amistosa, e impedir que os
artigos e verbetes sejam atingidos pelas disputas internas e pelas divergências de opinião.
Desse modo, deve haver reciprocidade nas relações mantidas nas comunidades virtuais, como
compreendem Lévy (1993) e Recuero (2008). Na Wikipédia, o bom comportamento
comunitário é tão relevante que ele constitui um dos Cinco Pilares: Normas de Conduta.
No item O que a Wikipédia não é, podemos destacar que
A Wikipédia não é lugar para guardar rancor, provocar conflitos pessoais, alimentar
o ódio ou desmotivar outrem a editar. Fazer ataques pessoais contra determinadas
pessoas ao longo de páginas de discussão da Wikipédia é um desrespeito às políticas
e objetivos da Wikipédia.
Espera-se que os usuários interajam com outros com civilidade, calma e com
espírito de cooperação. Não faça ataques pessoais, perseguições ou intimidações a
pessoas de quem discorda (WIKIPÉDIA, 2013, online).
Desrespeitando, as diretrizes da “netiqueta”, os wikipedistas podem se envolver em
Guerras de Edições desnecessárias, realizadas para provar que suas argumentações são as
mais corretas, as mais aceitáveis ou as que melhor que representa o conhecimento dos
especialistas e do senso comum. Com esse tipo de atitude comprometedora, os envolvidos
desrespeitam os pilares da Imparcialidade (ou Neutralidade) e da Convivência Comunitária.
Na Enciclopédia Livre, esse é um indicador de credibilidade pertinente. No entanto,
seu nível de efetividade restringe-se apenas ao âmbito wikipedista. Constatamos isso, em certa
medida, ao perceber que os padrões de comportamento e de boas-maneiras no ciberespaço
não são considerados ou, pelos menos, mencionados como fatores de fiabilidade por autores
como Tomáel et al (2001) e Fogg et al (2002a, 2002b).
8 CONSIDERAÇÕES FINAIS
Incialmente, precisamos considerar que as tecnologias de informação e comunicação
estão redimensionando e potencializando as capacidades humanas, desde acessar as
informações até interagir socialmente com seus pares em espaços geográficos longínquos. A
Internet e suas sucessivas evoluções tecnológicas são, em grande medida, os responsáveis
pela mudança de status dos internautas, que passaram de meros espectadores a interlocutores,
possibilitando o surgimento de projetos colaborativos voltados à produção de conteúdos
digitais, como é o caso da Wikipédia.
A tecnologia, por sua vez, é responsável por manter as características gerais do
projeto, que se fundamenta no acesso ao MediaWiki para a produção de conteúdos de forma
colaborativa. Assim, a Enciclopédia Livre acaba formando uma comunidade virtual, cuja
maior finalidade passa longe de ser a interação entre os editores e a formação de laços sociais
fortes, mas sim, a realização do trabalho imaterial para a construção de uma enciclopédia
multilíngue. Para que esse intuito seja alcançado, os envolvidos precisam atuar desenvolvendo
suas maiores habilidades intelectuais e linguísticas. Tudo isso acaba delineando os atributos
mais latentes da Wikipédia, que podem ser considerados como um dos atrativos desse projeto
colaborativo.
O conhecimento dos Cinco Pilares e do item O que a Wikipédia não é explicam mais
claramente as especificidades que envolvem o projeto colaborativo idealizado pela Wikimedia
Foundation, destacando quais são os pontos-chave que contribuem para sua estrutura
particular de funcionamento, exibindo a essência do projeto. As informações trazidas nesses
espaços contam também ao longo das páginas da enciclopédia, como forma de enfatizar
veementemente sua relevância no que concerne à validade de suas informações.
A existência desses predicados é elementar para a Wikipédia, especialmente para que
ela mantenha suas reais intenções ao longo dos anos. Entendemos ainda que esses fatores são
responsáveis pela grande expressividade social conquistada em seus 12 anos de vigência,
possibilitando que a mesma galgasse o prestígio de ser uma das fontes de informação mais
visitadas do ciberespaço, com um acervo quantitativo superior a muitos endereços online,
sendo, por isso, valorizada como um dos projetos colaborativos de maior sucesso no
ciberespaço.
A preocupação com o quesito confiabilidade emerge logo nos Cinco Pilares, quando
aparece como fator preponderante na produção de conteúdos a Imparcialidade (ou
Neutralidade). Além disso, a credibilidade das informações nessa enciclopédia abrange outros
indicadores.
Nesse horizonte, os indicadores expressivos são a Notoriedade, Nada de Pesquisa
Inédita, Fontes Primárias e Direitos Autorais. Esses elementos evidenciam a credibilidade,
endossando o discurso e as ações das fontes de informações formais e reconhecidas, tidas
como fiáveis. Adicionamos a isso a Verificabilidade, que permite que o usuário compare se as
informações as quais ele está tendo acesso na Wikipédia seguem esses requisitos de
confiabilidade. Tomando essa atitude, a Enciclopédia Livre desconcentra o peso da
responsabilidade com a designação de uma página confiável do editor e passa a dividi-la com
o usuário. Dessa maneira, na produção dos artigos e verbetes, o editor é responsável pelo
comprometimento em seguir essas diretrizes, enquanto os usuários são responsáveis por sua
averiguação.
No domínio da confiabilidade, isso se torna relevante porque permite que o usuário
confronte o nível de coesão e coerência do que a Wikipédia está abordando com uma fonte de
informação conceituada positivamente. O sucesso da Verificabilidade e dos demais requisitos
acima apontados só podem ser validados efetivamente com a inserção de citações, referências
e links. A presença desses últimos é compreendida como requisito bastante pertinente, pois
contemplam os critérios anteriores. Porquanto, a ausência deles pode impossibilitar o alcance
de outros indicadores.
Como vemos, essas condições constroem uma rede de indicadores extremamente
providenciais para o funcionamento do projeto colaborativo e para a confiabilidade,
considerando a presença constante desses requisitos e a relação direta que eles mantém entre
si. Por isso, a ausência de qualquer um deles na elaboração de um artigo ou verbete atinge
diretamente os demais, fragilizando importantes indicadores de credibilidade.
Além desses elementos, temos as políticas e as recomendações que também auxiliam
na construção de páginas mais confiáveis, desde o momento de produção (edição) até o
produto (artigos e verbetes) propriamente dito. Indiretamente, as diretrizes das políticas e das
recomendações tentam fazer com que as disposições sobre Imparcialidade, Notoriedade,
Verificabilidade, Nada de Pesquisa Inédita, Fontes Primárias e Direitos Autorais sejam
acatados nos artigos e verbetes. Através do conhecimento das políticas e recomendações, foi
possível identificar e caracterizar quais delas atuam mais enfaticamente no quesito da
confiabilidade.
As Políticas de Produção de Conteúdo se mostram como aquelas capazes de
controlar, na medida do possível, o conteúdo que é produzido dentro da Wikipédia. Nessa
categoria temática, se inserem as Políticas de Eliminação e de Bloqueio, que agem excluindo
tudo aquilo que fragiliza os indicadores de confiabilidade, tais com plágio, pesquisas inéditas
e direitos autorais, entre outros fatores que reduzem a qualidade dos conteúdos. Nesse grupo,
cabe também destacar a política de Proibição dos Proxies Anônimos, que oculta o IP de um
usuário, impossibilitando-o de ser penalizado com o bloqueio. Surpreendentemente, a Política
de Edição de conteúdos fica aquém das demais, por trazer subsídios insuficientemente
capazes de prover os indicadores de confiabilidade necessários.
A existência dessas políticas corrobora com o projeto da Wikipédia em manter um
índice de confiabilidade em um nível aceitável, evidenciando que o trabalho colaborativo
nessa fonte possui diretrizes de produção centradas na confiabilidade e, consequentemente, no
controle de conteúdo. A falta dessas políticas implicaria em uma maior vulnerabilidade na
credibilidade dos artigos e verbetes. Por isso, temos essas políticas como um indicador de alta
relevância para que a Wikipédia possa realizar suas atividades com sucesso.
O segundo grupo temático foi denominado de “equipe” de confiança, que é constituída
por administradores, reversores, burocratas, autorrevisores e eliminadores, pelo fato de ela
ser formada por wikipedistas que tiveram o reconhecimento do seu trabalho dedicado a
aumentar o nível de confiabilidade do acervo daquela enciclopédia, desenvolvendo funções
especializadas. De maneira direta e explícita essa categoria está inter-relacionada à anterior,
pois os editores de confiança são os responsáveis por executar as tarefas relativas à Política de
Bloqueio e de Eliminadores, por exemplo, possibilitando que os afazeres abordados por ela
sejam feitos com maior nível de rigidez, tornando-a o mais criteriosa possível. E, mais que
isso, estando em concordância com as políticas e recomendações.
Compreendemos ainda que a “equipe” de confiança da Wikipédia desempenha um
papel similar, senão igual, ao dos especialistas das fontes de informações fiáveis, exercendo
funções cabíveis à linha editorial, embora essa designação seja negada. Porquanto, sua
relevância se constitui em valor inestimável para a Enciclopédia Livre, sobretudo, por
considerarmos como um indicador de credibilidade e pelos mesmos serem parcialmente
responsáveis pelo controle de qualidade dos conteúdos dessa fonte de informação.
Precisamos enfatizar que a “equipe” de confiança também desempenha um papel de
responsabilidade por intermédio da tecnologia, como a Política de Robôs (ou Bots), que
promove exclusões automáticas das páginas que estão aquém do padrão desejado pela
Wikipédia, auxiliando diretamente a Política de Eliminação.
O terceiro e último grupo temático é a “netiqueta”. Diferentemente dos demais, essa
categoria mantém relação indireta com o controle ou a produção de conteúdos propriamente
dita. Sua contribuição, no que tange à confiabilidade, está atrelada ao entendimento de que as
discrepâncias internas entre colaboradores podem afetar a qualidade dos artigos e verbetes.
Portanto, ela estabelece que os wikipedistas mantenham um comportamento adequado e sem
competições internas.
A contribuição da “netiqueta” parece, em uma primeira aproximação, ser mínima e
insuficiente. No entanto, se efetivamente observada, tem a capacidade de diminuir
consideravelmente a chance de discussões infindáveis afastarem os editores desse projeto
colaborativo idealizado pela Wikimedia Foundation. Sua importância é tamanha para a
Wikipédia que um dos Cinco Pilares, Normas de Conduta, trata de discorrer sobre a
relevância fundamental de uma convivência comunitária saudável nesse projeto.
Fatores como Acessibilidade, que torna a Wikipédia uma fonte de informação mais
inclusiva para pessoas portadoras de necessidades especiais; Ortografia, que exprime,
indiretamente, a preocupação em manter formalidade linguística; e as Datas, que expõem a
última atualização das páginas, são considerados elementos importantes que contribuem
indiretamente para a credibilidade das informações. Diferentemente dos demais indicadores,
esses se voltam para o que existe nas páginas, ou seja, o produto.
A área de interseção entre grupos temáticos constituem um campo em que a
confiabilidade das informações da Wikipédia forma o seu núcleo central, sendo evidenciada
pela grande preocupação com qualidade do conteúdo produzido pelos seus editores e com o
nível de confiabilidade que eles possuem. Nesse âmbito, as considerações trazidas neles
apontam para a existência de uma política de informação específica, que propõe um conjunto
de fatores para produção, tratamento, armazenamento e disseminação da informação. No
entanto, sua validade só é concretizada nos domínios da Wikipédia.
Existem, por outro lado, fatores que ameaçam de perto a confiabilidade das
informações da Wikipédia, como, por exemplo, a invisibilidade dada por essa fonte de
informação às políticas e às recomendações no sentido de deixá-las visíveis ao público.
Percebemos que os critérios para a produção de conteúdos dessa fonte de informação
aparecem discretamente em sua página inicial com letras pequenas. A apresentação sutil
desses indicadores possibilita que muitos colaboradores produzam conteúdos desconhecendo
parte do projeto da Wikipédia, comprometendo, mesmo sem intenção, a confiabilidade das
informações que compõem os conteúdos dos artigos e verbetes.
Uma saída pertinente seria que as políticas e as recomendações se encontrassem no
topo das páginas e com letras maiores, chamando mais atenção dos usuários que desejassem
ser wikipedistas, possibilitando a probabilidade de aumentar o índice de páginas com mais
qualidade. Além disso, a Wikipédia poderia destacar mais enfaticamente apenas aquelas
políticas e recomendações mais pertinentes, excluindo repetições desnecessárias. Por meio da
possível adoção dessas medidas, a enciclopédia esclareceria aos usuários e aos editores que
possui uma “linha editorial”, que ela tenta controlar a qualidade, a validade, a verificabilidade
e, por conseguinte, a confiabilidade das informações de suas páginas.
Ponderamos ainda que de nada adiantaria a adoção dessas medidas se a Enciclopédia
Livre continuasse disponibilizando em sua página o fragmento em que admite a dispensa do
seguimento das políticas e recomendações, desde que haja bom senso por parte dos editores.
Ora, não faz sentido a existência das diretrizes que apontam os procedimentos para a
sistematização e produção de conteúdos, se elas podem ser ignoradas. Para que as políticas e
as recomendações tenham sua importância reconhecida e sejam valorizadas, é preciso que
toda a extensão da Wikipédia corrobore o mesmo pensamento. Diante disso, vemos que a
presença desse tipo de informação é completamente dispensável e é também uma constante
ameaça à fiabilidade. Acreditamos que a ausência tem mais relevância do que sua presença.
Por fim, no que se refere ao objeto material de estudo, resta destacar que, no decorrer
dessa pesquisa, nos deparamos com determinadas dificuldades. A primeira delas centra-se nas
políticas e recomendações, que, além de longas e redundantes, são, em certa medida,
insuficientes no detalhamento de questões importantes. Além disso, o fato de elas quase
estarem “ocultas” também foi um considerável obstáculo encontrado.
A inexpressividade temática sobre a confiabilidade das informações na Ciência da
Informação também foi um percalço bastante considerado, principalmente devido à
especificidade do objeto estudo, que demanda uma bibliografia mais particular.
Desta feita, esperamos que este estudo possa, pelo menos, despertar o interesse em
torno da confiabilidade das informações da web, possibilitando o surgimento de investigações
posteriores sobre a mesma temática. Desejamos ainda que esta pesquisa possa enfatizar um
pouco mais a emergência de fontes de informações colaborativas, independentes e autônomas,
que estão inovando em seus critérios de fiabilidade, concentrando esforços no seu processo de
produção, com destaque para a confiança e para a experiência dos pares.
Esperamos, ainda, que essa investigação possa fomentar pesquisas posteriores que
averiguem a possível relação entre os programas de inclusão digital do governo federal e a
produção de conteúdos, através da utilização dos softwares livre.
Em uma perspectiva mais ampla, destacamos a importância de pesquisas sobre o
debate em torno da produção colaborativa de conteúdos nas políticas de informação dos
países da América do Sul, possibilitando que os Estados envolvidos tenham a oportunidade de
trocar experiência e adaptar as propostas dos demais, de acordo com as suas realidades.
Por fim, consideramos relevante a realização de estudos comparativos entre a
Wikipédia e outras enciclopédias colaborativas, centrando-se nas semelhanças e diferenças
acerca dos elementos de fiabilidade que elas dispõem.
Ao final desse estudo, concluímos, em síntese, que a Wikipédia, a Enciclopédia Livre
conta com um conjunto expressivo de diretrizes que condicionam a sua produção de
conteúdos e, por conseguinte, evidenciam alguns indicadores de confiabilidade das
informações que os constituem. O modelo livre de produção apregoado pelo seu próprio
slogan não acontece de forma ampla e abrangente como muito se imagina. Nesse contexto, o
desenvolvimento do trabalho colaborativo exercido pelos editores é que mantém o projeto em
pleno funcionamento, sumariamente dependente do compromisso e da confiança com que as
edições são realizadas em concordância com os princípios que as fundamentam.
REFERÊNCIAS
AGÊNCIA BRASIL. Saiba mais sobre o Programa Brasileiro de Inclusão Digital, 4 ago.
2004. Disponível em: <http://agenciabrasil.ebc.com.br/noticia/2004-08-04/saiba-mais-sobre-
programa-brasileiro-de-inclusao-digital>. Acesso em: 10 mar. 2013.
ALVES, R. C. V. Web semântica: uma análise focada no uso de metadados. 2005. 180 f.
Dissertação (Mestrado em Ciência da Informação) - Faculdade de Filosofia e Ciências,
Universidade Estadual Paulista, Marília, 2005.
AMARAL, A. M. B. M. O cenário da política nacional de informação no Brasil. Informação
e sociedade: estudos, João Pessoa, v.1, n.1, p.47-53, jan./dez. 1991. Disponível:
<http://periodicos.ufpb.br/ojs2/index.php/ies/article/view/23/1337>. Acesso em: 12 dez. 2012.
ANDRADE, I. A. et al. Inteligência coletiva e ferramentas da web 2.0: a busca da gestão da
informação e do conhecimento em organizações. Perspectivas em gestão e conhecimento,
João Pessoa, v. 1, Número Especial, p. 27-43, out. 2011. Disponível em:
<http://periodicos.ufpb.br/ojs2/index.php/pgc/article/view/10385/6101>. Acesso: 12 dez.
2012.
ARAYA, E. R.M; VIDOTTI, S. A. B. Direito autoral e tecnologias da informação e da
comunicação no contexto da produção, uso e disseminação: um olhar para as Licenças
Creative Commons. Informação e Sociedade: estudos, João Pessoa, v. 19, n. 3, p. 39-51,
set./dez. 2009. Disponível em:
<http://www.ies.ufpb.br/ojs/index.php/ies/article/view/3900/3124>. Acesso em: 29 nov. 2013.
AUN, M. P. A construção de políticas nacional e supranacional de informação: desafio para
os Estados nacionais e blocos regionais. Ciência da Informação, Brasília, v. 28, n. 2, p. 115-
123. 1999. Disponível em: <http://revista.ibict.br/ciinf/index.php/ciinf/article/view/276/244>.
Acesso em: 10 jun. 2012.
BARDIN, L. Análise de Conteúdo. Lisboa. Portugal; Edições 70, LDA, 2010.
BARRETO, A. Perspectivas em Ciência da Informação. Revista de Biblioteconomia de
Brasília, v. 21, n. 2, 1997.
BARROS, A. J. S; LEHFELD, N. A. S. Fundamentos da metodologia científica. São Paulo:
Pearson Prentice Hall, 2007.
BOBBIO, N. O futuro da democracia: uma defesa das regras de jogo. Rio de Janeiro: Paz e
Terra, 1989.
BRAMAN, S. Change of state: information, policy and power. London: MIT Press, 2006.
______. Defining information policy. Journal of Information Policy: v.1, p. 1-5, 2011.
BRANCO, M. A. F. Brazil’s national health information policy. In: WORLD CONGRESS
ON HEALTH INFORMATION AND LIBRARIES, 9., 2005, Salvador - BA. Anais...
Salvador: ICML9 Abstracts - Commitment to Equity, 2005. p. 34-34.
BRASIL. Comitê de Implementação do Software Livre no Governo Federal. CISL apresenta
resultados da pesquisa de uso software livre no governo federal. Software livre no governo
do Brasil, [200--]. Disponível em: <http://www.softwarelivre.gov.br/noticias/cisl-apresenta-
resultados-da-pesquisa-de-uso-do-software-livre-no-governo-federal/>. Acesso em: 2 mar.
2013.
BRASIL. Decreto de 29 de outubro de 2003, institui a implantação de Comitês Técnico do
Comitê Executivo do Governo Eletrônico e dá outras providências. Diário Oficial da
República Federativa do Brasil, Brasília, DF, 29 out. 2003.
BRENNAND, E. G. Ciberespaço e educação: navegando na construção da inteligência
coletiva. Informação e sociedade: estudos, João Pessoa, v. 11, n. 1, p. 1-12, jan./jun. 2001.
Disponível em: <http://www.ies.ufpb.br/ojs/index.php/ies/article/view/314/237>. Acesso em:
1 jul. 2012.
CARPES, G. As redes: evolução, tipos e papel na sociedade contemporânea. Revista ACB:
Biblioteconomia em Santa Catarina, Florianópolis, v. 16, n. 1, p. 199-216, jan./jun. 2011.
CASTELLS, M. A sociedade em rede: a era da informação, economia, sociedade e cultura.
São Paulo: Paz e Terra, 1999.
CHESTERMAN, Danny. Learning from research perspective in collaborative
working. Career development international, v. 6, n. 7, p. 378-383, 2001.
CHRISTOFOLETTI, R.; LAUX, A. P. F. Confiabilidade, credibilidade e reputação: no
jornalismo e na blogosfera. Intercom: Revista brasileira de Ciências da Comunicação, São
Paulo, v.31, n.1, p. 29-49, jan./jun. 2008. Disponível em:
<http://www.portaldemidia.ufms.br/wp-content/uploads/2011/03/4809-12999-1-PB.pdf>.
Acesso em: 9 mar. 2013.
COSTA, F. P.; PAULINO, L. E. A. Software Livre: liberdade no compartilhamento de
conhecimento e informação. In: ENCONTRO REGIONAL DE ESTUDANTES DE
BIBLIOTECONOMIA, DOCUMENTAÇÃO E CIÊNCIA DA INFORMAÇÃO E GESTÃO
DA INFORMAÇÃO, 14., 2011, São Luís. Anais... São Luís, 2011. Disponível em:
<http://rabci.org/rabci/sites/default/files/Trabalho28SOFTWARE%20LIVRE%20liberdade%
20no%20compartilhamento%20de%20conhecimento%20e%20informa%C3%A7%C3%A3o.
pdf>. Acesso em: 5 abr. 2013.
COUTINHO, C. P.; BOTTENTUIT JUNIOR, J. B. Blog e wiki: os futuros professores e as
ferramentas da web 2.0. In: SIMPÓSIO INTERNACIONAL DE INFORMÁTICA
EDUCATIVA, 9., 2007, Porto. Anais... Porto, 2007. Disponível em:
<http://repositorium.sdum.uminho.pt/bitstream/1822/7358/1/Com%20SIIE.pdf>. Acesso em 2
mar. 2013.
CREATIVE COMMONS, 2013. Disponível em: http://creativecommons.org.br. Acesso em:
29 nov. 2013.
CRUZ, C. P; MOTTA, C. L. R. Um modelo de sistema de reputação para comunidades
virtuais. In: SIMPÓSIO BRASILEIRO DE INFORMÁTICA NA EDUCAÇÃO (SBIE), 17.,
2006, Brasília, Anais... Brasília, 2006. Disponível em:
http://www.lbd.dcc.ufmg.br/colecoes/sbie/2006/010.pdf. Acesso em: 5 abr. 2013.
CRUZ, R. C. Redes sociais virtuais: premissas teóricas ao estudo em Ciência da Informação.
Transinformação, Campinas, v. 22, n. 3, set./dez. 2010. Disponível em:
<http://periodicos.puc-campinas.edu.br/seer/index.php/transinfo/article/view/499/479>.
Acesso em: 5 abr. 2013.
CUNNINGHAM, W. Wiki design principles, 25 abr. 2013. Disponível em:
http://c2.com/cgi/wiki?WikiDesignPrinciples. Acesso em: 5 maio 2013.
DEMO, P. Pesquisa e construção do conhecimento: metodologia científica no caminho de
Habermas. Rio de Janeiro: Tempo Brasileiro, 1994.
______. Metodologia do conhecimento científico. São Paulo: Atlas, 2000.
DIAS, C. A. Hipertexto: evolução histórica e efeitos sociais. Ciência da Informação, v. 28,
n. 3, p. 269-277, set./dez. 1999. Disponível em:
<http://revista.ibict.br/ciinf/index.php/ciinf/article/view/286/253>. Acesso em: 10 dez. 2012.
DIRETORA conversa com jovens na Fliporto. G1Pernambuco, 17 nov. 2012. Disponível em
<http://g1.globo.com/pernambuco/fliporto/2012/noticia/2012/11/diretora-da-wikipedia-no-
brasil-conversa-com-jovens-na-fliporto.html>. Acesso em: 14 fev. 2013.
FAQUETI, M.; ALVES, M. B. Wikis e o Bibliotecário de referência: novos ambientes de
aprendizagem. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS UNIVERSITÁRIAS, 14.,
2006, Salvador. Anais... Salvador, 2006. Disponível em:
<http://www.snbu2006.ufba.br/soac/viewabstract.php?id=333>. Acesso em: 30 mar. 2007.
FOGG, B. Stanford Guidelines for Web Credibility. A Research summary from the
Stanford Persuasive Technology Laboraty. Stanford University. Stanford: Stanford Persuasive
Technology Lab, 2002b. Disponível em: <http://credibility.stanford.edu/guidelines/>. Acesso
em: 7 mar. 2013.
______. Stanford-Makovsky Web credibility study 2002: investigating what makes Web
sites credibile today. A research report by the Stanford Persuasive Technology Lab &
Makovsky & Company. Stanford University. Stanford: Stanford Persuasive Technology Lab ;
New York: Makovsky & Company, 2002a. Disponível em:
<http://www.webstrat.fr/sites/www.webstrat.fr/files/Stanford-MakovskyWebCredStudy2002-
prelim.pdf>. Acesso em: 7 abr. 2013.
FONSECA, A. Z. Copyleft, informação livre e estratégias de mercado. Revista
Contemporânea, v. 2, n. 3, 2004. Disponível em:
<http://www.contemporanea.uerj.br/pdf/ed_03/contemporanea_n03_11_fonseca.pdf>. Acesso
em: 5 fev. 2013.
FRAGOSO, S. Apresentação. In: RECUERO, R. Redes sociais na Internet. Porto Alegre:
Sulina. 2009. p. 11-14.
FREIRE, G. H. A. Construção participativa de instrumento de política de pública para gestão
e acesso à informação. Perspectivas em Ciência da Informação, Belo Horizonte, v. 13, n. 3,
p.195-207, set./dez. 2008. Disponível em:
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/224/511>. Acesso em: 2
mar. 2012.
______. O hipertexto como instrumento de informação em redes de comunicação.
Perspectivas em Ciência da Informação, Belo Horizonte, n. especial, p. 124-133, jul./dez.
2003. Disponível em:
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/656/442>. Acesso em: 2
mar. 2012.
FREIRE, I. M. A utopia planetária de Pierre Lévy: uma leitura hipertextual d’inteligência
coletiva. Perspectivas em Ciência da Informação, Belo Horizonte, v. 10 n. 2, p. 132-139,
jul./dez. 2005. Disponível em:
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/340/147>. Acesso em: 2
mar. 2012.
FROHMANN, B. Taking information policy beyond information science: applying the
actor network theory. 23rd
Annual Conference: Canadian Association for Inf. Science, 1995.
Disponível em: <http://www.ualberta.ca/dept/slis/cais/frohmann.htm> Acesso em: 3 mar.
2013.
GIBSON, W. Neuromancer. São Paulo: Aleph, 2003.
GNU operating systm, 2013. Disponível em: <http://www.gnu.org/>. Acesso em: 13 mar.
2013.
GNU project. Boston, USA: Free Software Foundation, 2003. Disponível em:
<http://www.gnu.org>. Acesso em: 13 nov. 2012.
GODOY, A. S. Introdução à pesquisa qualitativa e suas possibilidades. Revistas de
Administração de Empresas, v. 35, n. 2, mar./abr., 1995, p.57-63. Disponível em:
<http://rae.fgv.br/sites/rae.fgv.br/files/artigos/10.1590_S0034-75901995000200008.pdf>
Acesso em: 7 mar. 2013.
GOES, G. Os 20 sites mais acessados do mundo em 2013: facebook é o primeiro lugar da
lista. Apple ocupa a 17ª posição. Techtudo, 10 fev. 2013. Disponível em:
<http://m.techtudo.com.br/artigos/noticia/2013/02/os-20-sites-mais-acessados-no-mundo-em-
2013.html>. Acesso em: 14 fev. 2013.
GOMES, M. A ferramenta wiki uma experiência pedagógica. In: ENDECOM -2006- Fórum
nacional em Defesa da Qualidade do Ensino de Comunicação. 2006, São Paulo. Anais... São
Paulo: ECA/ USP, 2006. São Paulo. Disponível em:
<http://www3.usp.br/rumores/artigos2.asp?cod_atual=115>. Acesso em: 5 fev. 2013.
GONZÁLEZ DE GÓMEZ, N. M. Novos cenários políticos para a informação. Ciência da
Informação, Brasília, v. 31, n. 1, p. 27-40, jan./abr. 2002. Disponível em:
<http://revista.ibict.br/ciinf/index.php/ciinf/article/view/170/149>. Acesso em: 2 mar. 2012.
HARDT, M.; NEGRI, T. Império. 5. ed. Rio de Janeiro: Record, 2003.
HAYTHORNTHWAITE, C. Agrupamentos e comunidades: modelos de produção
colaborativa leve e pesada. Trad: Suely Fragoso, Paulo Finger. Revista fronteiras: estudos
midiáticos, São Leopoldo: v. 11, n. 3, p. 161-175, set./dez. 2009. Disponível em:
<http://www.fronteiras.unisinos.br/pdf/75.pdf>. Acesso em: 5 fev. 2013.
HEXSEL, R. Proposta de ações de governo para incentivar o uso de software livre. Relatório
técnico 004/2002. Curitiba: Universidade Federal do Paraná. Disponível em:
<http://www.inf.ufpr.br/info/techrep/RT_DINF004_2002.pdf>. Acesso em: 31 jan. 2013.
JARDIM, J. M; SILVA, S. C. A; NHARRELUGA, R. S. Análise de políticas públicas: uma
abordagem em direção às políticas de informação. Perspectivas em Ciência da Informação,
Belo Horizonte, v. 14, n. 1, p. 2-22, jan./abr. 2009. Disponível em:
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/743/535>. Acesso em: 12
nov. 2012.
JENKINS, H. Cultura da convergência. São Paulo: Aleph, 2008.
JOHNSON, T. S. P. Nos bastidores da Wikipédia Lusófona: percalços e conquistas de um
projeto de escrita coletiva online. 2009, 273f. Tese (Doutorado em Comunicação Social).
Universidade Federal de Minas Gerais, Belo Horizonte, 2009.
KAYE, A. Learning together apart. In: ______. Collaborative learning through computer
conferecing, The Najaden Papers, London, Spring-Vertag, NATO ASI Series, 1-24. 1992.
KEEN, A. O culto do amador: como blogs, MySpace, YouTube e pirataria digital estão
destruindo a nossa economia, cultura e valores. Rio de Janeiro: Zahar, 2009.
LAKATOS, E. M.; MARCONI, M. A. Técnicas de pesquisa: planejamento e execução de
pesquisas, amostragens e técnicas de pesquisa, elaboração, análise e interpretação dos dados.
São Paulo: Atlas, 2011.
LAZZARATO, M.; NEGRI, T. Trabalho imaterial: formas de vida e produção de
subjetividade. Rio de Janeiro: DP&A, 2001.
LEMOS, A. Cibercultura: tecnologia e vida social na cultura contemporânea. Porto Alegre:
Sulina, 2007.
______. Em direção a uma Cultura Copyleft. Contemporânea: revista de comunicação e
cultura, Salvador, v. 3, n. 2, p. 9-22, dez. 2004. Disponível em:
<http://www.facom.ufba.br/ciberpesquisa/andrelemos>. Acesso em: 12 nov. 2012.
______; LÉVY, P. O futuro da Internet. São Paulo: Paulus, 2010.
LÉVY, P. A inteligência coletiva: por uma antropologia do ciberespaço. São Paulo: Edições
Loyola, 1998.
______. As tecnologias da inteligência: o futuro do pensamento na era da informática. Rio
de Janeiro: Edições 34, 1993.
______. Cibercultura. São Paulo: Edições 34, 1999.
LIMA, C; SANTINI, R. Produção colaborativa na sociedade da informação. Rio de
Janeiro: E-papers, 2008.
LIMA, D. O. Infraestrutura para gerenciamento de reputação de usuários e sua
aplicação em um caso real. 2010. 72f. Trabalho de Conclusão de Curso (Curso em Ciência
da Computação) – Instituto de Informática, Universidade Federal do Rio Grande do Sul, Porto
Alegre, 2010.
LOPES, A. C. F. Um método para a geração de estimativas de reputação mais precisas
perante a oscilação de comportamento das entidades avaliadas. 2006. 133f. Dissertação
(Mestrado em Computação) – Instituto de Computação, Universidade Federal Fluminense,
Niterói, 2006.
MARTELETO, R.M. Análise de redes sociais: aplicação dos estudos de transferência da
informação. Ciência da Informação, Brasília, v. 30, n. 1, p. 71-81, jan./abr. 2001. Disponível
em: <http://revista.ibict.br/ciinf/index.php/ciinf/article/view/226/201>. Acesso em: 12 dez.
2012.
MEDEIROS, J. W. Entre a sociedade da informação e a inteligência coletiva: educação e (in)
formação para a ação emancipatória. Informação e Sociedade: estudos, João Pessoa, v. 11, n.
2, 2001. Disponível em: <http://www.ies.ufpb.br/ojs/index.php/ies/article/view/297/220>.
Acesso em: 12 dez. 2012.
______. A “ecologia cognitiva” da sociedade ciberinformacional: contribuição para uma
sociedade em rede. Informação e sociedade: estudos, João Pessoa, v. 13, n. 1, p. 29-47,
jan./jun. 2003. Disponível em:
<http://www.ies.ufpb.br/ojs/index.php/ies/article/view/119/1572>. Acesso em: 12 dez. 2012.
MEZURA-GODOY, C.; TALBOT, S. Towards Social Regulation in Computer-Supported
Collaborative Work . In: INTERNATIONAL WORKSHOP ON GROUPWARE, 7.,
Darmstadt, Alemanha. Proceedings... 2001. p. 84-89.
MINAYO, M. C. S. O desafio do conhecimento. São Paulo: Hecitec, 1996.
MIRANDA , A. L. C. et al. DataGramaZero – revista de Ciência da Informação, v.1, n.5,
out. 2000. Disponível em: <http://www.dgz.org.br/out00/Art_03.htm> Acesso em: 9 mar.
2013.
MONTEIRO, S. D. O ciberespaço: o termo, a definição e o conceito. DataGramaZero –
revista de Ciência da Informação, v. 8, n.3, jun. 2007. Disponível em:
<http://www.dgz.org.br/jun07/Art_03.htm>. Acesso em: 12 dez. 2012.
NEVES, J. L. Pesquisa qualitativa: características, usos e possibilidades. Caderno de
pesquisa em administração de empresas, São Paulo, v. 1, n. 3, 2º sem, 1996. Disponível
em: <http://www.ead.fea.usp.br/cad-pesq/arquivos/c03-art06.pdf>. Acesso em: 7 mar. 2013.
OLHAR DIGITAL. Distrito Federal incentiva uso de software livre em órgãos públicos, 14
fev. 2012. Disponível em: <http://olhardigital.uol.com.br/noticia/distrito-federal-incentiva-
uso-de-software-livre-em-rg-os-p-blicos/24121>. Acesso em: 9 fev. 2013.
OLIVEIRA, W. C; VIDOTTI, S. A. B. G; CABRAL, F. A. Notas sobre a dinâmica da
sociocomunicação no ciberespaço. DataGramaZero – revista de Ciência da Informação, v.
6, n. 6, dez. 2005. Disponível em: <http://www.dgz.org.br/dez05/Art_02.htm>. Acesso em: 12
dez. 2012.
PASSARELI, B. Do mundaneum à web semântica: discussão sobre a revolução nos conceitos
de autor e autoridade das fontes de informação. DataGramaZero – revista de Ciência da
Informação, v.9 n.5 out. 2008. Disponível em: <http://www.dgz.org.br/out08/Art_04.htm>.
Acesso em: 12 dez. 2012.
PASSOS, K. G. F; SILVA, E. L. O reflexo da inteligência coletiva nas organizações.
TransInformação, Campinas, v. 24, n. 2, p. 127-126, 2012. Disponível em:
<https://www.puc-campinas.edu.br/periodicocientifico>. Acesso em: 12 abr. 2013.
PINHEIRO, C. Biblioteca 2.0. Rede de Bibliotecas Escolares: newsletter, Lisboa, n. 5, jul.
2009. Disponível em:
<http://www.rbe.minedu.pt/np4/?newsId=511&fileName=biblioteca_2_0.pdf>. Acesso em: 3
mar 2013.
PRIMO, A. Interação mediada por computador. Porto Alegre: Sulina, 2008.
RECUERO, R. Comunidades em redes sociais na Internet: um estudo de caso dos fotologs
brasileiros. Liinc em Revista, Rio de Janeiro, v. 4, n. 1, mar. 2008, p. 63-83. Disponível em:
<http://revista.ibict.br/liinc/index.php/liinc/article/view/254/145>. Acesso em: 7 jan. 2013.
______. Redes sociais na Internet. Porto Alegre: Sulina, 2009.
RESNICK, P. et al. Reputation system. Communications of the ACM, v. 43, n. 12, p. 45-48,
dec. 2000.
REZENDE, A.M.G. Hipertexto: tramas e trilhas de um conceito contemporâneo. Informação
e Sociedade: estudos, João Pessoa, v. 10, n. 1, 2000. Disponível em:
<http://www.ies.ufpb.br/ojs2/index.php/ies/article/view/340/262>. Acesso em: 9 mar. 2012.
RIBEIRO, A. L. R.; GOTTSCHALG-DUQUE, C. Wikipédia e Enciclopédia Britânica:
informação confiável. Revista Brasileira de Biblioteconomia e Documentação. São Paulo,
v.7, n.2, p. 172-185, jul./dez. 2011.
RICHARDSON, J. Pesquisa social: métodos e técnicas. São Paulo: Atlas, 2008.
ROSADO, L. A. S. Autoria textual coletiva fora do âmbito acadêmico: delineando o perfil
dos wikipedistas. In: COLÓQUIO DE PESQUISAS EM EDUCAÇÃO E MÍDIA, 1., 2007,
Rio de Janeiro. Anais... Rio de Janeiro, 2007. 1 CD-ROM.
RUPLEY, S. What’s a Wiki?. PC Magazine, 05 set. 2003. Disponível em:
<http://www.pcmag.com/article2/0,4149,1071705,00.asp >. Acesso em: 12 fev. 2013.
SANTAELLA, L. Navegar no ciberespaço: o perfil cognitivo do leitor imersivo. São Paulo:
Paulus, 2004.
SCHONS, C. H. A contribuição dos wikis como ferramenta de colaboração no suporte à
gestão do conhecimento organizacional. Informação e Sociedade: estudos, João Pessoa, v.
18, n. 2, p. 79-91, maio/ago. 2008. Disponível em:
<http://www.ies.ufpb.br/ojs2/index.php/ies/article/view/1706/2112>. Acesso em: 9 mar. 2013.
SERRA, P. O princípio da credibilidade na selecção da informação mediática. Biblioteca on
line de Ciências da Comunicação, 2006. Disponível em: <http:www.bocci.ubi.pt/serra-
paulo-credibilidade-seleccao-informacao.pdf>. Acesso: 7 jan. 2013.
SILVA, F. C. C. Avaliação de fontes de informação da web: um estudo focado na
Wikipédia. 2008. 133f. Dissertação (Mestrado em Ciência da Informação). Universidade
Federal de Santa Catarina, Florianópolis, 2008.
SILVA, H. V. 100% Linux na Procuradoria Geral do estado da Paraíba. Software livre no
governo do Brasil, 19 maio 2010. Disponível em: <http://www.softwarelivre.gov.br/casos-
de-sucesso/100-linux-na-procuradoria-geral-do-estado-da-paraiba>. Acesso em: 2 mar. 2013.
STALLMAN, R. Science must “push copyright aside”. Nature: web debates, London,
England, c2001. Disponível em: <http://www.nature.com/nature/debates/e-
access/Articles/stallman.html>. Acesso em: 6 fev. 2013
SZABÓ, I. Comunidades virtuais de conhecimento: informação e inteligência coletiva no
ciberespaço. 2008. 135f. Dissertação (Mestrado em Ciência da Informação) – Universidade
Federal da Bahia, Instituto de Ciência da Informação, Bahia, 2008.
THOMAZ, M. Software livre na Universidade Federal do Acre. Software livre no governo
do Brasil,[20---]. Disponível em: <http://www.softwarelivre.gov.br/casos-de-
sucesso/software-livre-na-universidade-federal-do-acre-ufac>. Acesso em: 2 mar. 2013.
TOMÁEL, M. I; ALCARÁ, A. R; DI CHIARA, I. G. Das redes sociais à inovação. Ciência
da Informação, Brasília, v. 34, n. 2, p. 93-104, maio/ago. 2005. Disponível em:
<http://revista.ibict.br/ciinf/index.php/ciinf/article/view/642/566>. Acesso em: 10 abr. 2012.
TOMAÉL, M. et al. Avaliação de fontes de informação na Internet:
critérios de qualidade. Informação e Sociedade, João Pessoa, v. 11, n. 2,
p. 13-35, 2001. Disponível em:
<http://www.ies.ufpb.br/ojs/index.php/ies/article/view/293/216> Acesso em: 10 abr. 2013.
TRIVIÑOS, A. Introdução à pesquisa em Ciências Sociais. São Paulo: Atlas, 1987.
UNGER, R. J. G. Regimes de informação na sociedade da informação: uma contribuição
para a gestão da informação. 2006. 108f. Dissertação (Mestrado em Ciência da Informação).
Universidade Federal Fluminense, Rio de Janeiro, 2006.
UNIVERSIA, 2012. Wikipédia convoca professores para melhorar artigos. Disponível em:
<http://noticias.universia.com.br/destaque/noticia/2012/07/05/948603/wikipedia-convoca-
professores-melhorar-artigos.html>. Acesso em: 3 dez. 2013.
VALENTIM, L. M. Informação em ciência e tecnologia: políticas, programas e ações
governamentais – uma revisão de literatura. Ciência da Informação, Brasília, v. 31, n. 3, p.
92-102, set./dez. 2002. Disponível em:
<http://revista.ibict.br/ciinf/index.php/ciinf/article/view/154/133>. Acesso em: 11 mar. 2013.
VELLOSO, R. V. O ciberespaço como ágora eletrônica na sociedade contemporânea. Ciência
da Informação, Brasília, v. 37, n. 2, p.103-109, maio/ago. 2008. Disponível em:
<http://revista.ibict.br/ciinf/index.php/ciinf/article/view/1046/761>. Acesso em: 10 abr. 2013.
VIDOTTI, S. O ambiente hipermídia no processo de ensino-aprendizagem. 2001. 126f.
Tese (Doutorado). Universidade Estadual Paulista, Marília, 2001.
VIEIRA, M. A Wikipédia é confiável? Credibilidade, utilização e aceitação de uma
enciclopédia on line no ambiente escolar. 2008. 157f. Dissertação (Mestrado em Educação) –
Universidade do Vale do Itajaí, Itajaí, 2008.
______; CHRISTOFOLETTI, R. Confiabilidade no uso da Wikipédia como fonte de pesquisa
escolar. Revista tecnologias na educação, v. 1, n. 1, 2009. Disponível em:
<http://tecnologiasnaeducacao.pro.br/revista/a1n1/art4.pdf>. Acesso em: 7 fev. 2013.
VILLALOBOS, A. P. O; SILVA, D. C. As potencialidades da web semântica para a Ciência
da Informação. Ponto de acesso: revista do Instituto de Ciência da Informação da UFBA,
Salvador, v. 4, n. 2, p. 58-75, set. 2010. Disponível em:
<http://www.portalseer.ufba.br/index.php/revistaici/article/view/3623/3405>. Acesso em: 24
abr. 2012.
WIKIPEDIA: a Enciclopédia Livre, 2013. Disponível em:
<http://pt.wikipedia.org/wiki/Wikip%C3%A9dia:P%C3%A1gina_principal>. Acessos em:
2013.