Download - Navegando na web
NNNAAAVVVEEEGGGAAANNNDDDOOO
NNNAAA WWWEEEBBB
Navegando na web- Pietra Giovanna de Almeida
2
NNNAAAVVVEEEGGGAAANNNDDDOOO
NNNAAA WWWEEEBBB
Conhecendo e Aprendendo
Cedaspy
Profº Ricardo
Pietra Giovanna de Almeida
Turma: 3606a
Navegando na web- Pietra Giovanna de Almeida
3
Índice
Introdução ..................................................................................................................................... 4
Capítulo I ....................................................................................................................................... 5
Capítulo II ...................................................................................................................................... 8
Capítulo III ................................................................................................................................... 12
Capítulo IV ................................................................................................................................... 15
Capítulo V .................................................................................................................................... 18
Capítulo VI ................................................................................................................................... 20
Capítulo VII .................................................................................................................................. 22
Capítulo VIII ................................................................................................................................. 24
Capítulo IX ................................................................................................................................... 26
Bibliografia .................................................................................................................................. 37
Navegando na web- Pietra Giovanna de Almeida
4
Introdução
Internet é a rede mundial de computadores interconectados. É o sistema de informação
global que: a) é logicamente ligado por um endereço único global baseado no Internet
Protocol (IP) ou suas subsequentes extensões; b) é capaz de suportar comunicações
usando o Transmission Control Protocol/Internet Protocol (TCP/IP) ou suas
subsequentes extensões e/ou outros protocolos compatíveis ao IP; e c) provê, usa ou
torna acessível, tanto publicamente como privadamente, serviços de mais alto nível
produzidos na infraestrutura descrita.
Neste pequeno livro, você irá conhecer tudo sobre este mundo virtual. Desde sua origem
até os dias atuais.
Escrito de forma simples, objetiva e de fácil entendimento. È uma maneira muito
interessante de estar atualizado sobre o assunto Internet!
Navegando na web- Pietra Giovanna de Almeida
5
Capítulo I
Os primeiros registros de interações sociais que poderiam ser realizadas através de redes
foi uma série de memorandos escritos por J.C.R. Licklider, do MIT - Massachussets
Institute of Technology, em agosto de 1962, discutindo o conceito da "Rede Galáxica".
Ele previa vários computadores interconectados globalmente, pelo meio dos quais todos
poderiam acessar dados e programas de qualquer local rapidamente. Em essência, o
conceito foi muito parecido com a Internet de hoje. Licklider foi o primeiro gerente do
programa de pesquisa de computador do DARPA, começando em outubro de 1962.
Enquanto trabalhando neste projeto, ele convenceu seus sucessores Ivan Sutherland, Bob
Taylor e Lawrence G. Roberts da importância do conceito de redes computadorizadas.
Leonard Kleinrock, do MIT, publicou o primeiro trabalho sobre a teoria de trocas de
pacotes em julho de 1961 e o primeiro livro sobre o assunto em 1964. Kleinrock
convenceu Roberts da possibilidade teórica das comunicações usando pacotes ao invés de
circuitos, o que representou um grande passo para tornar possíveis as redes de
computadores. O outro grande passo foi fazer os computadores se conversarem. Em
1965, Roberts e Thomas Merrill conectaram um computador TX-2 em Massachussets
com um Q-32 na Califórnia com uma linha discada de baixa velocidade, criando assim o
primeiro computador de rede do mundo. O resultado deste experimento foi a
comprovação de que computadores poderiam trabalhar bem juntos, rodando programas e
recuperando dados quando necessário em máquinas remotas, mas que o circuito do
sistema telefônico era totalmente inadequado para o intento. Foi confirmada assim a
convicção de Kleinrock sobre a necessidade de trocas de pacotes.
No final de 1966, Roberts começou a trabalhar no DARPA para desenvolver o conceito
das redes computadorizadas e elaborou o seu plano para a ARPANET, publicado em
1967. Na conferência onde ele apresentou este trabalho, houve também uma
apresentação sobre o conceito de redes de pacotes desenvolvido pelos ingleses Donald
Davies e Roger Scantlebury, da NPL-Nuclear Physics Laboratory. Scantlebury conversou
com Roberts sobre o trabalho da NPL e do trabalho de Paul Baran e outros em RAND.
O grupo do projeto RAND tinha escrito um trabalho sobre o papel das redes de trocas
de pacotes para voz segura quando serviam militarmente em 1964. O que se percebeu
então é que os trabalhos desenvolvidos no MIT (1961-67), RAND (1962-65) e NPL
(1964-67) estavam se desenrolando em paralelo sem que nenhum dos pesquisadores
soubesse dos outros trabalhos. A palavra "pacote" foi adotada do trabalho desenvolvido
no NPL e a velocidade de linha proposta para ser usada no projeto da ARPANET foi
upgraded de 2,4 Kb para 50 Kb.
Navegando na web- Pietra Giovanna de Almeida
6
Em agosto de 1968, depois de Roberts e o grupo do DARPA terem refinado a estrutura
e especificações para a ARPANET, uma seleção foi feita para o desenvolvimento de um
dos componentes-chave do projeto: o processador de interface das mensagens (IMP). Um
grupo dirigido por Frank Heart (Bolt Beranek) e Newman (BBN) foi selecionado.
Paralelamente ao trabalho do grupo da BBN nos IMPs com Bob Kahn assumindo um
papel vital do desenho arquitetônico da ARPANET, a topologia e economia da rede foi
desenvolvida e otimizada por Roberts em conjunto com Howard Frank e seu grupo da
Network Analysis Corporation, e sistema de mensuração da rede foi preparado pelo
pessoal de Kleinrock na UCLA -University of California at Los Angeles.
Devido à teoria de trocas de pacotes de Kleinrock e seu foco em análise, desenho e
mensuração, seu Centro de Mensuração de Rede da UCLA foi escolhido para ser o
primeiro nó (ponta) da ARPANET. Isso aconteceu em setembro de 1969, quando BBN
instalou o primeiro IMP na UCLA e o primeiro servidor de computador foi conectado. O
projeto chamado Aumento do Intelecto Humano, de Doug Engelbart, que incluía NLS
(um precursor dos sistemas de hipertexto), no SRI-Stanford Research Institute, foi o
segundo nó ou ponta. SRI passou a manter as tabelas de "Host Name" para o
mapeamento dos endereços e diretório do RFC. Um mês depois, quando SRI foi
conectado à ARPANET, a primeira mensagem entre servidores foi enviada do laboratório
de Kleinrock para o SRI. Dois outros "nodes" foram acrescentados então: a UC Santa
Barbara e a Universidade de Utah. Este dois nós incorporavam projetos de aplicações
visuais, com Glen Culler e Burton Fried na UCSB investigando métodos de uso de funções
matemáticas para restaurar visualizações na rede e Robert Taylor e Ivan Sutherland em
Utah investigando métodos de representação em terceira dimensão na rede. Assim, no
final de 1969, quatro servidores estavam conectados na ARPANET e, mesmo naquela
época, os trabalhos se concentravam tanto na rede em si como no estudo das possíveis
aplicações da rede. Esta tradição continua até hoje.
Computadores foram rapidamente adicionados à ARPANET nos anos seguintes e os
grupos de trabalho desenvolveram um protocolo servidor a servidor funcionalmente
completo e outros softwares de rede. Em dezembro de 1971, o Network Working Group
(NWG) gerenciado por S. Crocker, concluiu o primeiro protocolo servidor a servidor da
ARPANET, chamado Network Control Protocol (NCP). De 1971 a 1972, os usuários da
rede finalmente puderam começar a desenvolver as suas aplicações. Em outubro de 1972,
Kahn organizou uma grande e bem sucedida demonstração sobre a ARPANET na
Conferência Internacional de Comunicação entre Computadores (ICCC). Esta foi a
primeira demonstração pública da nova tecnologia de rede para o público. Foi também em
1972 que o correio eletrônico, considerado a primeira aplicação "hot", foi introduzido.
Em março de 1972, Ray Tomlinson, da BBN, escreveu o software básico de e-mail com
as funções de "send/enviar" e "read/ler", motivado pela necessidade dos desenvolvedores
da ARPANET de ter um fácil mecanismo de coordenação. Em julho, Roberts expandiu a
Navegando na web- Pietra Giovanna de Almeida
7
utilidade do e-mail escrevendo o primeiro programa utilitário de e-mail para listar, ler
seletivamente, arquivar, encaminhar e responder a mensagens. Dali, o correio eletrônico
se tornou a maior aplicação de rede por mais de uma década. Este foi o prenúncio do
tipo de atividade que vemos hoje na WWW hoje, ou seja, o enorme crescimento de todos
os tipos de aplicações e utilitários agregados pessoa-a-pessoa.
Navegando na web- Pietra Giovanna de Almeida
8
Capítulo II
A ARPANET original cresceu e se tornou a Internet. A Internet foi baseada na idéia de
que haveria múltiplas redes independentes de desenho arbitrário, começando com a
ARPANET como rede pioneira de trocas de pacotes, mas logo incluindo redes de
satélites, de rádio, etc. A Internet como conhecemos hoje incorpora uma idéia-chave:
rede de arquitetura aberta. Nesta abordagem, a opção pela tecnologia de qualquer rede
individual não é ditada por nenhuma arquitetura de rede particular e sim escolhida
livremente pelo provedor, que a torna capaz de entrar em rede com outras redes pela
"Arquitetura de Internetworking". Até aquele período, havia apenas um método para
agregar redes: a tradicional troca de circuitos onde redes se interconectavam no nível do
circuito, passando bits individuais em base síncrona por um circuito ponta a ponta entre
duas localidades. Lembre que Kleinrock tinha mostrado em 1961 que troca de pacotes era
um método mais eficiente. Condições específicas de interconexão entre redes era outra
possibilidade. Enquanto havia outras formas limitadas de interconectar redes, todas
requeriam que uma fosse componente da outra, ao invés de agirem como companheiras
no oferecimento do serviço ponta a ponta. Numa rede de arquitetura aberta, as redes
individuais podem ser separadamente desenhadas e desenvolvidas e cada uma pode ter sua
interface própria que pode ser oferecida a usuários e outros provedores. Cada rede pode
ser desenhada de acordo com o ambiente e os requerimentos dos seus usuários. Não há
restrições em relação aos tipos de redes que podem ser incluídas numa área geográfica,
apesar de algumas considerações pragmáticas ditarem o que é razoável oferecer.
A idéia de redes de arquitetura aberta foi primeiro introduzida por Kahn em 1972. Este
trabalho foi parte de um programa de pacotes de rádio, mas depois se tornou um
programa em separado. Naquele tempo, o programa foi chamado "Internetting". NCP
não tinha a habilidade de endereçar redes e máquinas além da destinação IMP da
ARPANET e portanto deveria ser mudado. NCP se amparava na ARPANET para prover
confiabilidade de ponta a ponta. Se qualquer pacote fosse perdido, o protocolo e
qualquer aplicação que ele suportasse iria simplesmente parar a transferência de dados.
Nesse modelo, NCP não tinha controle de erro ponta a ponta, uma vez que se pensava
que a ARPANET seria a única rede em existência e ela seria tão confiável que nenhum
controle de erro seria necessário por parte dos servidores. Então Kahn decidiu
desenvolver uma nova versão do protocolo que iria satisfazer as necessidades de um
ambiente de redes de arquitetura aberta. Este protocolo iria eventualmente ser chamado
Transmission Control Protocol/Internet Protocol (TCP/IP). Enquanto NCP agia como um
driver de equipamento, o novo protocolo seria mais um protocolo de comunicações.
Quatro regras foram críticas para a idéia de Kahn:
Navegando na web- Pietra Giovanna de Almeida
9
Cada rede distinta deveria ser independente e mudanças internas não deveriam
ser requisitadas para conectá-las à Internet;
Comunicações seriam na base do melhor esforço. Se um pacote não chegasse à sua
destinação final, ele seria retransmitido da fonte;
caixas pretas seriam usadas para conectar as redes. Mais tarde elas seriam
chamadas gateways e roteadores. Os gateways não reteriam informações sobre os
fluxos de pacotes passantes. Isso assegurou que eles se mantivessem simples,
evitando adaptações complicadas e recuperações de erros;
Não haveria controle global no nível operacional.
Outros itens avaliados foram os seguintes:
Algoritmos para prevenir perda de pacote de comunicações desabilitadas,
capacitando-os a serem retransmitidos da fonte;
Provimento de "pipelining" de servidor a servidor, de forma que múltiplos pacotes
poderiam ser roteados da fonte ao destino à vontade dos servidores
participantes, se redes intermediárias o permitissem;
Funções de gateway (porta de entrada) para encaminhar os pacotes
apropriadamente. Isso incluiria cabeçalhos de IP para roteamento, interfaces
dirigidas, quebra de pacotes em pedaços menores (caso necessário), etc;
A necessidade de checagens ponta a ponta, recuperação dos pacotes de
fragmentos e detecção de duplicatas;
A necessidade do endereçamento global;
Técnicas de controle de fluxo servidor a servidor;
Interfaces com vários sistemas operacionais;
Eficiência da implementação, performance entre as redes, etc.
Kahn começou a trabalhar na série orientada às comunicações dos princípios do sistema
operacional enquanto na BBN, e documentou alguns dos seus pensamentos num
memorando interno chamado "Princípios de Comunicações para Sistemas Operacionais".
Neste ponto, ele percebeu que seria necessário aprender os detalhes de implementação
de cada sistema operacional para ter a chance de embutir neles novos protocolos de uma
forma eficiente. Assim, na primavera de 1973, depois de começar o projeto
"internetting", Kahn chamou Vint Cerf (então trabalhando em Stanford) para trabalhar
com ele no desenho detalhado do protocolo. Cerf tinha se envolvido intimamente com o
desenho e desenvolvimento do NCP original e já tinha o conhecimento em interfacing
com os sistemas operacionais existentes. A abordagem arquitetônica para a comunicação
de Kahn e a experiência em NCP de Cerf possibilitaram a construção do que se tornou
TCP/IP.
Navegando na web- Pietra Giovanna de Almeida
10
O trabalho de Kahn e Cerf foi altamente produtivo e a primeira versão escrita da teoria
resultante foi distribuída numa reunião especial do International Network Working Group
(INWG), que tinha sido definido numa conferência da Sussex University em setembro de
1973. Cerf tinha sido convidado para dirigir este grupo e usou a ocasião para realizar o
encontro do INWG. Algumas teses básicas surgiram da colaboração entre Kahn e Cerf:
Comunicação entre dois processos deveria consistir logicamente de uma longa
corrente de bytes (que eles chamaram de octets). A posição de qualquer octet
na corrente seria usada para identificá-lo;
O controle do fluxo seria feito usando janelas e corrediças e acks. O destino
poderia selecionar quando seria efetuado o reconhecimento e cada ack retornado
seria cumulativo para todos os pacotes recebidos;
Foi deixado em aberto como a fonte e o destino iria concordar nos parâmetros
das janelas a serem usadas. Padrões foram usados inicialmente;
Apesar de a Ethernet (sistema de redes que transporta sinais (bits) para todos
os microcomputadores em rede) estar em desenvolvimento em Xerox PARC
naquele tempo, a proliferação de LANs (redes locais) não era prevista, muito
menos a proliferação de PCs (computadores pessoais) e estações de trabalho. O
modelo original foi redes nacionais como a ARPANET, que se pensava não iriam
existir muitas como ela. Então um IP de 32 bits foi usado, dos quais os
primeiros 8 bits indicavam a rede e os restantes 24 bits designavam o servidor
na rede. Esta hipótese de que 256 redes seriam suficientes para o futuro
próximo passou necessariamente a ser reconsiderada quando LANs começaram a
aparecer no final da década de 1970.
O trabalho original de Cerf e Kahn sobre a Internet descreveu um protocolo chamado
TCP, que provia todo o transporte e serviços de encaminhamento na Internet. Kahn
queria que o protocolo suportasse uma série de serviços de transporte, desde a entrega
sequenciada de dados totalmente confiável (modelo de circuito virtual) até o serviço de
datagram, onde a aplicação fazia uso direto do serviço básico de rede, o que poderia
implicar em pacotes ocasionalmente perdidos, corrompidos ou reordenados. Entretanto, o
esforço inicial para implementar TCP resultou numa versão que somente permitiu
circuitos virtuais. O modelo funcionou bem para transferência de arquivos e aplicações de
logins remotos, mas alguns dos trabalhos em aplicações avançadas como pacotes de voz
mostraram que, em alguns casos, a perda de pacotes deveria ser corrigida pela aplicação e
não pelo protocolo TCP. Isso levou a uma reorganização do TCP original em dois
protocolos: o simples IP que provia apenas o endereçamento e o roteamento dos pacotes
individuais e o TCP em separado, que se preocupava com o controle do fluxo e a
recuperação de pacotes perdidos. Para as aplicações que não queriam os serviços de TCP,
uma alternativa chamada User Datagram Protocol (UDP) foi adicionada para prover
acesso direto ao serviço básico de IP.
Navegando na web- Pietra Giovanna de Almeida
11
Uma grande motivação inicial para a ARPANET e para a Internet foi o compartilhamento
de recursos. A conexão das duas redes foi muito mais econômica do que a duplicação de
caros computadores. Entretanto, enquanto a transferência de arquivos e o login remoto
(Telnet) foram aplicações muito importantes, o correio eletrônico teve o impacto mais
significativo das inovações daquela época. O correio eletrônico ou e-mail criou um novo
modelo no qual as pessoas poderiam se comunicar e mudou a natureza da colaboração,
primeiro na construção da própria Internet e mais tarde na sua utilização por grande
parte da sociedade.
Outras aplicações foram propostas nos dias iniciais da Internet, incluindo comunicação de
voz (precursora da telefonia via Internet), vários modelos de compartilhamento de
arquivos e discos, e os primeiros programas que mostraram o conceito de agentes (e
vírus..). Um conceito-chave da Internet é que ela não é desenhada para apenas uma
aplicação, mas é uma infraestrutura genérica na quais novas aplicações podem ser
concebidas, como aconteceu com a World Wide Web. Foi e é a natureza do serviço
provido pelos protocolos TCP e IP que tornam isso possível.
Navegando na web- Pietra Giovanna de Almeida
12
Capítulo III
DARPA fez três contratos para Stanford (Cerf), BBN (Ray Tomlinson) e UCL (Peter
Kirstein) implementarem TCP/IP (que foi simplesmente chamado TCP no trabalho de
Cerf/Kahn, mas que continha ambos os componentes). A equipe de Stanford, liderada
por Cerf, produziu uma detalhada especificação e, em um ano, havia três implementações
independentes de TCP que poderiam operar em conjunto. Este foi o começo de longa
experimentação e desenvolvimento a fim de evoluir e amadurecer os conceitos e a
tecnologia da Internet. Começando com as três primeiras redes (ARPANET, Packet
Radio e Packet Satellite) e suas comunidades iniciais de pesquisa, o ambiente
experimental cresceu para incorporar essencialmente qualquer forma de rede e grande
comunidade de pesquisa e desenvolvimento. E, com cada expansão, novos desafios
surgiram.
As primeiras implementações de TCP foram feitas por sistemas como Tenex e TOPS 20.
Quando os microcomputadores apareceram, alguns acharam que TCP foi grande e
complexo demais para rodar neles. David Clark e seu grupo de pesquisa no MIT
trabalharam para mostrar que poderia haver uma simples e compacta implementação de
TCP. Eles produziram esta implementação, primeiro para a Xerox Alto (a primeira
estação de trabalho pessoal desenvolvida em Xerox PARC) e depois para o IBM PC. Esta
implementação foi completamente inter-operável com outros TCPs, mas foi feita sob
medida para microcomputadores, e mostrou que estações de trabalho, tanto quanto
sistemas de grande porte, poderiam tornar-se parte da Internet. Em 1976, Kleinrck
publicou o primeiro livro sobre ARPANET, com ênfase na complexidade dos protocolos e
nas dificuldades que eles introduzem. Este livro foi importante na divulgação da crença
nas redes com trocas de pacotes para uma grande comunidade.
O desenvolvimento generalizado de LANs, PCs e estações de trabalho na década de 80
permitiu a prosperidade da Internet que nascia. A tecnologia Ethernet, desenvolvida por
Bob Metcalfe em 1973 na Xerox PARC é agora provavelmente a tecnologia de rede
dominante na Internet e os PCs e estações de trabalho são os computadores
dominantes. A mudança entre poucas redes com pequeno número de servidores (o
modelo original ARPANET) e muitas redes resultou num número de novos conceitos e
mudanças na tecnologia básica. Primeiro, isso resultou na definição de três classes de
rede (A, B e C) para acomodar o alcance das redes. A classe A passou a representar
redes de grande escala nacional (pequeno número de redes com grande número de
servidores). A classe B passou a representar redes de escala regional. E a classe C passou
a representar redes locais (grande número de redes com relativamente poucos
servidores).
Navegando na web- Pietra Giovanna de Almeida
13
Uma grande mudança ocorreu como resultado do aumento da escala da Internet e os
assuntos gerenciais associados. Para facilitar o uso da rede, nomes foram atribuídos a
servidores para que não fosse necessário lembrar endereços numéricos. Originalmente, o
número de servidores foi limitado e, portanto, foi possível manter uma tabela única de
todos os servidores e seus nomes e endereços. A mudança para o grande número de
redes independentemente gerenciadas (por exempo, LANs) significou o fim da tabela
única de servidores, e o Domain Name System (DNS) foi inventado por Paul
Mockapetris, da USC/ISI. O DNS permitiu um mecanismo escalarmente distribuído para
resolver nomes de servidores hierárquicos (por exemplo, www.acm.org) num endereço
Internet.
O crescimento da Internet também desafiou a capacidade dos roteamentos.
Originalmente existiu um único algorítmo distribuído para roteamento que foi
implementado uniformemente por todos os roteadores na Internet. Quando explodiu o
número de redes na Internet e o desenho inicial de roteamento não expandiu o
suficiente, este foi substituído por um modelo hierárquico de roteamento com um
Interior Gateway Protocol (IGP) usado dentro de cada região da Internet e um Exterior
Gateway Project (EGP) usado para ligar as regiões. Este desenho permitiu que
diferentes regiões usassem diferentes IGPs, de forma que diferentes requerimentos de
custo, rápida configuração, robustez e escala pudesse ser acomodados. Não apenas o
algorítmo de roteamento, mas também o tamanho das tabelas de endereçamento
acentuou a capacidade dos roteamentos. Novas abordagens para agregação de endereço,
em particular roteamento entre domínios sem classe (CIDR) foram introduzidas para
controlar o tamanho das tabelas de roteamento. Um dos maiores desafios foi como
propagar as mudanças para o software, particularmente o software do servidor. DARPA
dava suporte à UC Berkeley para investigar modificações para o sistema operacional Unix,
inclusive incorporando o TCP/IP desenvolvido em BBN. Apesar de Berkeley ter mais tarde
reescrito o código para torná-lo mais adequado ao sistema Unix, a incorporação do
TCP/IP no Unix BSD foi crítica para a dispersão dos protocolos na comunidade de
pesquisa. Muitos da comunidade de pesquisa da ciência da computação já haviam
começado a usar Unix BSD no seu dia-a-dia e a estratégia de incorporar protocolos
Internet no sistema operacional da comunidade de pesquisa foi um dos elementos-chave
das larga e bem-sucedida adoção da Internet.
Um dos mais interessantes desafios foi a transição do protocolo de servidor da
ARPANET de NCP para TCP/IP em 01/01/1983. Foi uma transição imediata,
requisitando todos os servidores em conversão simultânea (ou então passariam a se
comunicar via mecanismos específicos). A transição foi cuidadosamente planejada pela
comunidade por anos antes e foi muito fácil no dia em que realmente aconteceu (mas
teve como consequência a distribuição de "buttons" dizendo "Eu sobrevivi à transição
para o TCP/IP").
Navegando na web- Pietra Giovanna de Almeida
14
O protocolo TCP/IP tinha sido adotado como padrão de defesa três anos antes, em
1980. Tal fato levou diretamente à eventual divisão entre comunidades militar e não
militar. Em 1983, ARPANET estava sendo usada por um número significante de
organizações de pesquisa e desenvolvimento e de operações da defesa. A transição da
ARPANET do protocolo NCP para o protocolo TCP/IP permitiu a divisão entre a
MILNET, que passou a suportar os requisitos operacionais, e a ARPANET, que passou a
suportar as necessidades de pesquisa.
Portanto, em 1985, a Internet já estava bem estabelecida como uma larga comunidade
de suporte de pesquisadores e desenvolvedores e começava a ser usada por outras
comunidades para comunicações diárias pelo computador. O correio eletrônico já estava
sendo usado por muitas comunidades, frequentemente com sistemas diferentes, mas a
interconexão entre os diferentes sistemas de correio foi demonstrando a utilidade de
comunicação eletrônica entre as pessoas.
Navegando na web- Pietra Giovanna de Almeida
15
Capítulo IV
Ao mesmo tempo em que a tecnologia Internet estava sendo experimentalmente validada
e largamente utilizada por um conjunto de pesquisadores da ciência da computação,
outras redes e tecnologias de rede estavam sendo criadas. A utilidade das redes
computadorizadas - especialmente o correio eletrônico - demonstrada por DARPA e pelo
Departamento de Defesa dos Estados Unidos não foi perdida em outras comunidades e
disciplinas, e, ainda na década de 1970, redes começaram a aparecer em qualquer lugar
que dispusesse de fundos e recursos para isso. O Departamento de Energia dos Estados
Unidos estabaleceu a MFENet para seus pesquisadores em energia de fusão magnética e a
HEPNet para o grupo de física de alta energia. Os físicos espaciais da NASA seguiram
com a SPAN, e Rick Adrion, David Farber, and Larry Landweber estabeleceram a CSNET
para a comunidade acadêmica e industrial da Ciência da Computação com um subsídio
inicial da NSF-National Science Foundation. A livre disseminação do sistema operacional
Unix na AT&T resultou na USENET, baseada no protocolo de comunicação UUCP incluído
no Unix, e, em 1981, Ira Fuchs e Greydon Freeman projetaram a BITNET, que ligou os
computadores acadêmicos num paradigma do tipo "correio eletrônico como imagens de
cartão".
Com a exceção da BITNET e da USENET, estas primeiras redes (incluindo ARPANET)
tinham sido construídas para um objetivo específico, isto é, elas foram criadas para, e
largamente restritas a, comunidades fechadas de acadêmicos. Havia pouca pressão para
que as redes individuais fossem compatíveis e, na verdade, elas não eram. Mais ainda,
tecnologias alternativas estavam sendo procuradas pelo segmento comercial, incluindo
XNS da Xerox, DECNet e SNA da IBM. Restou à inglesa JANET (1984) e à U.S.
NSFNET (1985) programas para explicitamente anunciar seus intentos de servirem à
comunidade educacional, não importando a disciplina. Mais, a condição para universidades
americanas receberem fundos do NSF era que "a conexão deveria estar disponível para
todos os usuários qualificados no campus".
Em 1985, Dennis Jennings, da Irlanda, passou um ano na NSF liderando o programa da
NSFNET. Ele trabalhou com a comunidade para ajudar a NSF a tomar uma decisão
crítica: que TCP/IP iria ser mandatório para o programa da NSFNET. Quando Steve
Wolff chegou à NSFNET em 1986, ele reconheceu a necessidade por uma infraestrutura
de rede maior para suportar as comunidades acadêmicas e de pesquisa, além da
necessidade de desenvolver uma estratégia para estabelecer esta infraestrutura
independentemente dos recursos federais. Políticas e estratégias foram adotadas para
atingir este fim.
Navegando na web- Pietra Giovanna de Almeida
16
NSF também decidiu suportar a infraestrutura organizacional da Internet da DARPA já
existente, hierarquicamente arranjada pelo então Internet Activities Board (IAB). A
declaração pública desta opção foi a autoria conjunta pelo grupo de Engenharia e
Arquitetura da Internet da IAB e pelo grupo de Assessoria Técnica de Rede da NSF do
RFC 985 - Requirements for Internet Gateways, que formalmente assegurou a
interoperabilidade entre DARPA e NSF.
Em adição à seleção do TCP/IP para o NSFNET, agências federais norte-americanas
fizeram e implementaram várias outras decisões políticas que definiram a Internet de
hoje, como segue:
Agências federais norte-americanas dividiram o custo da infraestrutura, como os
circuitos transoceânicos. Elas também apoiaram os pontos de interconexão para o
tráfego entre agências. Federal Internet Exchanges (FIX-E e FIX-W) construídas
com este objetivo serviu como modelos para os pontos de acesso da rede e
facilidades "*IX" que são características proeminentes da arquitetura Internet de
hoje;
Para coordenar esta participação, foi formado o Federal Networking Council
(Conselho Federal de Redes). The FNC cooperou com organizações internacionais
como o RARE na Europa, através do Comitê de Pesquisa Intercontinental, para
coordenar o apoio da comunidade mundial de pesquisa à Internet;
Esta participação e cooperação entre agências em assuntos relacionados à Internet
tem uma longa história. Um acordo sem precedentes realizado em 1981 entre
Farber, representando a CSNET e a NSF, e Kahn, representando a DARPA,
permitiu à CSNET compartilhar a infraestrutura da ARPANET numa base
estatística;
Similarmente, a NSF encorajou redes regionais (inicialmente acadêmicas) da
NSFNET a buscar clientes comerciais, expandir seus estabelecimentos para serví-
los e explorar as resultantes economias de escala para baixar os custos de
subscrição para todos;
No backbone da NSFNET, o segmento de escala nacional da NSFNET, NSF fez
cumprir uma política (Acceptable Use Policy - AUP) que proibiu o uso do
backbone para objetivos que não fosssem de suporte à Pesquisa e à Educação. O
resultado predizível e desejado do encorajamento de tráfego comercial nos níveis
local e regional, enquando proibindo seu acesso ao backbone nacional, foi estimular
a emergência e o crescimento de redes privadas e competitivas (como PSI,
UUNET, ANS CO+RE e outras mais tarde). Este processo de aumento de redes
privadas e autofinanciadas para usos comerciais foi iniciado em 1988 numa série
de conferências promovidas pela NSF em Harvard's Kennedy School of
Government sob o título "A Comercialização e Privatização da Internet" e na
lista "com-priv" da rede;
Navegando na web- Pietra Giovanna de Almeida
17
Em 1988, o comitê do Conselho Nacional de Pesquisa norte-americano, dirigido
por Kleinrock e com Kahn e Clark como membros, produziu um relatório
autorizado pela NSF entitulado "Em Direção a uma Rede Nacional de Pesquisa".
Este relatório influenciou o então Senador Al Gore e anunciou as redes de alta
velocidade que se tornariam a fundação para a superhighway da informação do
futuro;
Em 1994, o comitê do Conselho Nacional de Pesquisa norte-americano,
novamente dirigido por Kleinrock e novamente com Kahn e Clark como membros,
produziu um novo relatório autorizado pela NSF intitulado "Fazendo Ideia do
Futuro da Informação: a Internet e Além". Neste documento, a superhighway da
informação foi articulada e tópicos críticos como direitos da propriedade
intelectual, ética, preços, educação, arquitetura e regulamentação da Internet
foram discutidos;
A política de privatização da NSF culminou em abril de 1995, com o fim do
subsídio ao backbone da NSFNET. Os fundos recuperados foram competitivamente
redistribuídos para redes regionais para compra de conectividade nacional das
agora numerosas redes privadas.
O backbone fez a transição entre a rede construída de roteadores da comunidade de
pesquisa para equipamentos comerciais. Em seus oito anos e meio, o backbone cresceu de
seis nodes com links de 56 Kb para 21 nodes com múltiplos links de 45 MB. A Internet
cresceu para mais de 50 mil redes em todos os sete continentes, com aproximadamente
29 mil redes apenas nos Estados Unidos.
Tal foi o peso do ecumenismo e dos recursos da NSFNET (US$ 200 milhões entre 1986
e 1995) e a qualidade dos protocolos, que em 1990, quando a ARPANET foi
desautorizada, TCP/IP tinha suplantado e marginalizado os demais protocolos de rede, e
IP estava também se tornando o serviço de sustentação da infraestrutura da informação
global.
Navegando na web- Pietra Giovanna de Almeida
18
Capítulo V
A chave para o rápido crescimento da Internet tem sido o livre e aberto acesso aos
documentos básicos, especialmente as especificações dos protocolos.
Os inícios da ARPANET e da Internet na comunidade acadêmica de pesquisa promoveu a
tradição acadêmica de publicação de idéias e resultados. Entretanto, o ciclo normal da
publicação acadêmica tradicional era formal e devagar demais para a dinâmica troca de
idéias na criação das redes. Em 1969, um passo importante foi tomado por S. Crocker,
então na UCLA, estabelecendo série de notas relativas a "Request for Comments" (RFC,
ou, traduzindo, Solicitação de Comentários). Estas notas ou memorandos seriam uma
forma rápida de distribuição de observações no compartilhamento de idéias com outros
pesquisadores. A princípio, os RFCs eram impressos e distribuídos pelo correio tradicional.
Quando o File Transfer Protocol (FTP, significando protocolo de transferência de
arquivos) começou a ser usado, os RFCs se tornaram arquivos online acessados via FTP.
Agora, claro, os RFCs são facilmente acessados via web em dezenas de sites no mundo. O
SRI- Stanford Research Institute, no papel de Centro de Informação de Redes, manteve
os diretórios online. Jon Postel atua até hoje como editor dos RFCs, bem como gerente
da administração centralizada de número de protocolo.
O efeito dos RFCs foi criar um círculo positivo de retornos, com idéias e propostas
apresentadas em um RFC gerando outro RFC com mais idéias, e daí por diante. Quando
algum consenso (ou pelo menos uma série consistente de idéias) era atingido, um
documento com as especificações era então preparado. Estas especificações seriam então
usadas como base para implementações pelas várias equipes de pesquisa.
Com o tempo, os RFCs se tornaram mais focados nos padrões de protocolo (as
especificações oficiais), apesar de ainda existir RFCs informativos que descrevem
abordagens alternativas ou provêem informações antecedentes sobre protocolos e
engenharia. Os RFCs são agora vistos como documentos de registro nas comunidades de
engenharia e padrões da Internet. O acesso aberto aos RFCs (grátis, se você tem
qualquer tipo de conexão com a Internet) promove o crescimento da Internet porque
permite que especificações reais sejam usadas como exemplos em classes universitárias e
por empreendedores desenvolvendo novos sistemas.
O correio eletrônico tem sido essencial em todas as áreas da Internet, e especialmente
no desenvolvimento das especificações dos protocolos, padrões técnicos e engenharia da
Internet. OS RFCs mais antigos apresentaram um conjunto de idéias desenvolvidas por
pesquisadores de um determinado lugar para o resto da comunidade. Depois que o e-mail
Navegando na web- Pietra Giovanna de Almeida
19
ou correio eletrônico começou a ser utilizado, o padrão de autoria mudou - os RFCs
eram apresentados por coautores com uma visão comum, independentemente de suas
localizações.
O uso de listas de discussão especializadas tem por muito tempo sido usado no
desenvolvimento das especificações de protocolo e continua a ser uma ferramenta
importante. O IETF tem agora mais de 75 grupos de trabalho, cada um trabalhando
num aspecto diferente da engenharia da Internet. Cada um desses grupos tem uma lista
de discussão para trocar idéias sobre documentos em desenvolvimento. Quando o consenso
é atingido num rascunho, o documento é então distribuído como um RFC.
Como o rápido crescimento da Internet é acelerado pelo entendimento da sua capacidade
de promover o compartilhamento de informações, nós deveríamos entender que o
primeiro papel da rede foi permitir o compartilhamento da informação sobre seu próprio
desenho e operação através dos RFC. Este método único para a evolução de novas
capacidades da rede continuará a ser crítico na evolução futura da Internet.
Navegando na web- Pietra Giovanna de Almeida
20
Capítulo VI
A Internet representa tanto uma coleção de comunidades como uma coleção de
tecnologias, e seu sucesso é largamente atribuída à satisfação das necessidades básicas da
comunidade e à utilização efetiva da comunidade na expansão da sua infraestrutura. O
espírito da comunidade tem uma longa história, começando com a ARPANET. Os
pesquisadores da antiga ARPANET trabalharam numa comunidade fechada para
conseguirem fazer as demonstrações iniciais da tecnologia de transferência de pacotes
descrita anteriormente. Da mesma forma, vários outros programas de pesquisa da ciência
da computação promovidos pela DARPA (Packet Satellite, Packet Radio e outros) foram
fruto de atividades cooperadas que usavam pesadamente qualquer mecanismo disponível
para coordenar seus esforços, começando com o correio eletrônico e acrescentando
compartilhamento de arquivos, acesso remoto e WWW. Cada um dos programas formou
um grupo de trabalho, começando com o Grupo de Trabalho de Rede da ARPANET. Por
conta do papel da ARPANET na infraestrutura de suporte a vários programas de
pesquisa, e com a evolução da Internet, o Grupo de Trabalho de Rede se tornou o Grupo
de Trabalho da Internet.
No final da década de 70, reconhecendo que o crescimento da Internet foi acompanhado
pelo crescimento em tamanho da comunidade de pesquisa interessada na Internet e que,
portanto, havia uma necessidade maior de mecanismos de coordenação, Vint Cerf, então
gerente do Programa Internet da DARPA, formou vários grupos de coordenação:
Um Conselho de Cooperação Internacional (ICB-Internet Cooperation Board),
presidido por Peter Kirstein da UCL, para coordenar as atividades com alguns
países europeus envolvidos no programa Packet Satellite;
Um Grupo de Pesquisa Internet (Internet Research Group), para prover um
ambiente para a troca geral de informações sobre a Internet;
E um Conselho de Controle de Configuração da Internet (ICCB-Internet
Configuration Control Board), presidido por Clark. O ICCB iria assessorar Cerf na
gerência da florescente Internet.
Em 1983, quando Barry Leiner passou a gerenciar o programa de pesquisa da Internet na
DARPA, ele e Clark reconheceram que o crescimento contínuo da comunidade Internet
demandava uma reestruturação dos mecanismos de coordenação. O ICCB foi então
substituído por forças-tarefa, cada uma focalizando uma área particular da tecnologia
(roteamentos, protocolos ponta-a-ponta, etc.). O IAB, então chamado Internet
Activities Board ou Conselho de Atividades Internet, foi então formado com os
presidentes das forças-tarefa. Foi uma coincidência que esses presidentes fossem os
mesmos do antigo ICCB e Dave Clark continuou a presidi-lo. Depois de algumas mudanças
Navegando na web- Pietra Giovanna de Almeida
21
no IAB, Phill Gross se tornou o presidente da revitalizada IETF-The Internet Engineering
Task Force (Força-Tarefa da Engenharia da Internet), naquele tempo apenas uma das
forças-tarefa do IAB. Em 1985 então, houve um tremendo crescimento no lado
prático/da engenharia da Internet. Este crescimento resultou na explosão dos
comparecimentos nas reuniões do IETF, e Gross teve que criar uma subestrutura do IETF
na forma de grupos de trabalho.
Este crescimento foi complementado por uma grande expansão da comunidade. DARPA
então tinha deixado de ser o maior financiador da Internet. Além da NSFNet e de várias
atividades financiadas pelos governos americanos e internacionais, o segmento comercial
começou a se interessar pela Internet. Também em 1985 Kahn e Leiner deixaram a
DARPA que não vinha conseguindo manter seu ritmo de atividades Internet. Como
resultado, o IAB perdeu seu patrocinador e progressivamente assumiu o papel de líder na
Internet.
O crescimento da Internet continuou, resultando em nova subestruturação do IAB e do
IETF. O IETF combinou Grupos de Trabalho em Áreas, e designou Diretores de Áreas.
Um Grupo Diretivo de Engenharia da Internet ou a IESG- Internet Engineering Steering
Group foi formado com Diretores de Áreas. A IAB reconheceu a crescente importância do
IETF e reestruturou o processo de padrões para explicitamente reconhecer o IESG como
o grupo principal de revisão para os padrões. O IAB também foi reestruturado de forma
que o resto das forças-tarefa (outras além do IETF) fossem combinadas numa Força-
Tarefa de Pesquisa Internet ou IRTF- Internet Research Task Force, presidida por
Postel, com as outras forças-tarefa renomeadas como Grupos de Pesquisa.
Navegando na web- Pietra Giovanna de Almeida
22
Capítulo VII
O correio eletrônico foi a primeira aplicação surgida na Internet, com o objetivo de
facilitar a comunicação e a troca de idéias e observações entre o grupo de acadêmicos que
estava construindo e experimentando a Internet. Os documentos mais antigos da
comunidade eram distribuídos via correio tradicional, eram, portanto pouco ágeis e
apresentavam conjuntos de idéias desenvolvidas por pesquisadores de um determinado
lugar para o resto da comunidade. Depois que o e-mail ou correio eletrônico começou a
ser utilizado, a velocidade da comunicação o padrão de autoria dos trabalhos mudaram.
Os documentos passaram a ser apresentados por coautores com uma visão comum,
independentemente de suas localizações. E a capacidade e a velocidade de envio da
comunicação e da resposta à comunicação aumentaram exponencialmente.
O Que É o Correio Eletrônico:
O correio eletrônico é um tipo de correio disponível pela Internet onde você usa uma
caixa postal eletrônica simbolizada por um endereço do tipo
[email protected]. Esta caixa postal eletrônica tem o mesmo conceito
da caixa postal tradicional: sabendo do endereço da sua caixa postal, qualquer pessoa
poderá enviar uma mensagem eletrônica para você. Todas as mensagens enviadas para
você ficam armazenadas nos servidores de e-mail do seu provedor até a hora em que
você acesse a Internet (você precisa estar conectado à Internet para receber seus e-
mails) e dê o comando para recebê-las, baixando-as para o seu microcomputador pessoal.
As Vantagens do Correio Eletrônico:
A aplicação básica do correio eletrônico é a comunicação entre duas ou mais pessoas. Esta
comunicação pode ser de caráter pessoal (entre familiares e amigos) e de caráter
profissional (entre funcionários da mesma empresa, parceiros de empresas distintas,
clientes e fornecedores ou prestadores de serviços, profissionais e imprensa, etc). O e-
mail tem grandes vantagens:
É ágil: toma segundos ou minutos para chegar até à caixa postal do destinatário,
em qualquer parte do mundo;
É de graça: você não paga por e-mail enviado ou recebido, mas apenas uma
mensalidade ao seu provedor pelo acesso à Internet;
É escrito: facilita o acompanhamento de solicitações;
Permite o envio de mensagens para muitas pessoas ao mesmo tempo;
Permite respostas a mails recebidos;
Permite encaminhamentos de mails recebidos a terceiros;
Navegando na web- Pietra Giovanna de Almeida
23
Permite o envio de arquivos de dados anexados: imagine que beleza poder receber
um arquivo integral em seu formato original para trabalho ou consulta.
Do ponto de vista de quem recebe e-mails, ele é também muito cômodo, já que
as mensagens são recebidas na caixa postal particular do destinatário e lá ficam à
espera que ele (a) as acesse.
Navegando na web- Pietra Giovanna de Almeida
24
Capítulo VIII
Domínio é o nome de uma área reservada num servidor Internet que indica o endereço
de um website. O identificador do ambiente Web (http://) não faz parte do domínio.
Geralmente, o domínio toma a forma de nomedaempresa.com.br, se a empresa for
comercial, ou nomedaorganização.org.br, se a empresa não for comercial. Existem também
outros tipos de domínios no Brasil. Clique aqui para conhecê-los.
Por Que é Importante Ter um Domínio Próprio:
A obtenção de domínio com o nome da sua empresa, projeto ou produto será
fundamental para o seu presente e para o seu futuro. Isto porque, certamente, chegará
a hora em que você quererá ter um website na Internet e ter pessoas visitando o seu
website (quanto mais, melhor!). E a forma mais fácil de alguém supor o seu endereço
de website (ou URL) é colocando o nome da sua empresa ou projeto ou produto.com.br!
Porque, se a sua empresa não tiver um domínio próprio disponível na Internet, o
endereçamento do seu website será algo como
http://www.nomedoseuprovedor.com.br/nomedasuaempresa. Difícil de acertar (como os
internautas saberão que provedor lhe atende?) e muito grande, concorda?
A não obtenção do domínio com o nome da sua empresa poderá inclusive gerar perda de
clientes e dores-de-cabeça legais. Imagine se o domínio com o nome da sua empresa já foi
registrado por outra empresa - que pode ter o mesmo nome da sua (ou não) e foi mais
rápida no registro do domínio. Já vimos vários casos assim. E, perdendo a chance de
registrar um domínio, sua recuperação é difícil e onerosa. Veja parecer sobre conflitos
entre marcas e nomes na Internet dado pelo escritório Pinheiro Neto Advogados.
O Que É Necessário para Registrar um Domínio no Brasil:
FAPESP
No Brasil, o órgão regulador de domínios é a Fundação de Amparo à Pesquisa do Estado
de São Paulo. A FAPESP mantém o banco de registros de domínios pela Internet. O
registro.br permite o registro, a manutenção e a publicação dos domínios na Internet sob
o domínio .br (indicador do Brasil como país sede do domínio), por pessoas físicas e
jurídicas legalmente estabelecidas no Brasil.
Navegando na web- Pietra Giovanna de Almeida
25
O registro.br possibilita a pesquisa online de domínios. A primeira tela do site já lhe
mostrará uma pequena janela onde será possível fazer a pesquisa para saber se o domínio
desejado está disponível.
Quanto Custa para Ter um Domínio Próprio?
Para registrar e manter um domínio próprio, você pagará dois tipos de taxas: uma taxa
para a FAPESP e outra taxa para o provedor que estará hospedando o seu domínio e o
seu website:
À FAPESP, você pagará R$ 30,00 pelo registro do domínio e R$ 30,00 pela
manutenção anual. Os valores são os mesmos para pessoas jurídicas, profissionais
liberais ou pessoas físicas;
Ao provedor que estará hospedando o seu domínio e o seu website, você pagará
uma taxa de inscrição (às vezes isenta) e mensalidades. O valor da inscrição e das
mensalidades varia de provedor a provedor. O exemplo do que sugerimos na fase
de seleção do seu provedor de acesso, levante os preços e benefícios de cada
provedor em relação a domínio e hospedagem de websites.
Navegando na web- Pietra Giovanna de Almeida
26
Capítulo IX
Este capítulo apresenta um pequeno glossário com o significado dos principais termos da
Internet:
@ (at ou arroba) significa "em", antecedendo o local (provedor ou domínio próprio)
onde suas caixas postais estão hospedadas. Ex: [email protected].
Ad é um gráfico ou um banner de uma página web que, quando clicado, leva o internauta
à outra Web site.
Ad Click é o ato de clicar em um ad.
Ad View é a página que mostra o ad. Podem ser mostrados um ou vários "ads" em um
mesmo "ad view".
Alias é um nome alternativo (para uma URL, e-mail, arquivo ou variável, por exemplo).
Antivírus é um programa de computador que localiza e corrige os estragos feitos por
programas de vírus.
ARPANET é a rede de compartilhamento de computadores da ARPA - Advanced
Research Projects Agency, que mais tarde evoluiu para a Internet.
Attachment é o nome que se dá a um ou mais arquivos que seguem anexados (attached
ou, aportuguesando, atachados) a uma mensagem eletrônica.
Autenticação é a técnica pela qual a Internet requer a identificação do internauta
através da digitação do seu username e password.
Avatar é a personificação de algo ou alguém; a representação de um jogador virtual num
jogo eletrônico ou online.
Backbone é a infraestrutura formada pelas linhas de comunicação e o hardware de
transmissão e de recepção para acesso à Internet mundial vendido aos provedores.
Backup é copiar arquivos para um segundo dispositivo (outro drive ou disquete) como
medida de precaução no caso de haver algum problema com o dispositivo original onde os
arquivos se encontram. Uma das mais importantes regras no uso de computadores é
"faça o backup de seus arquivos regularmente".
Navegando na web- Pietra Giovanna de Almeida
27
Banda larga é o termo genérico de linhas de alta velocidade de transmissão de dados para
a conexão com a Internet.
Bandwidth é: a) a medida em Kb de dados transferidos num tráfego de um website; b)
a capacidade de transporte da informação pelos fios, cabos e canais que nos conectam no
cyberspace - há um limite para a quantidade de dados que qualquer tipo de
fio/cabo/canal pode transportar num determinado momento, mesmo no caso de fibras
óticas; c) a capacidade de armazenamento de um sistema.
Banner é um anúncio de propaganda colocado num website (banner em inglês quer dizer
estandarte).
BIT é a sigla para BInary digiT ou dígito binário.
BPS significa bits por segundo. É uma medida de velocidade de dados de transmissão via
modem.
Bridge é um equipamento que conecta duas redes locais (LANs) ou dois segmentos de
uma mesma LAN. Diferentemente dos roteadores ou routers, bridges são protocolo-
independente, enviando pacotes sem a capacidade de otimizar rotas. Isso lhes dá
velocidade, mas muito menos versatilidade.
Browser é o nome dado aos programas de computador usados para localizar e visualizar
documentos em HTML. São esses programas que permitem a navegação no ambiente
WWW e a visualização de websites. Ex: Microsoft Internet Explorer.
Buttons são botões ou selos ilustrativos que fazem parte da programação visual do
website.
Byte é uma medida de armazenamento em espaço em disco igual a 8 bits.
CGI significa Common Gateway Interface. São scripts que permite a inclusão de
formulários em páginas Web. Perl é a linguagem tradicional dos scripts CGI.
Click through rate é o percentual de usuários que clicam num "ad" exposto numa página
web.
Comércio eletrônico é a venda de produtos e serviços através da Internet.
Computador é um equipamento eletrônico capaz de ordenar, calcular, testar, pesquisar e
editar informações de acordo com instruções estabelecidas e segundo uma representação
binária, obedecendo a um conjunto de operações aritméticas e lógicas.
Navegando na web- Pietra Giovanna de Almeida
28
Conta é uma permissão para acesso à Internet, normalmente simbolizada por um login e
uma senha. A conta é aberta e mantida num provedor de acesso mediante o pagamento
de mensalidades pelo internauta.
Cookies são arquivos contendo informações como nome e preferências dos visitantes de
um website. Esta informação é fornecida por cada internauta em sua primeira visita ao
site. O servidor do site visitado regista a informação num arquivo e armazena este
arquivo no disco rígido do internauta. Quando o internauta retorna ao site, o servidor
procura e acha o cookie e se autoconfigura de acordo com a preferências indicadas por
cada internauta.
Correio eletrônico ou e-mail é o sistema de comunicação baseado no envio e no
recebimento de mensagens eletrônicas via Internet. Indica tanto o ambiente da Internet
onde você envia mensagens eletrônicas como a própria mensagem eletrônica em si.
CPU quer dizer Central Processing Unit ou Unidade Central de Processamento. É a
unidade que leva e traz instruções da memória do computador e as decodifica para
controlar todas as outras partes do computador.
Criptografia é o embaralhamento do conteúdo de uma mensagem eletrônica ou e-mail
numa sequência de caracteres alfanuméricos. É usada para dar maior segurança ao envio
de dados pela Internet.
Cyberspace é espaço eletrônico e onde ocorrem as transações na Internet.
DARPA ou Defense Advanced Research Projects Agency é a organização central de
pesquisa e desenvolvimento do Departamento de Defesa norte-americano.
DHTML é a sigla para Dynamic Hipertext Markup Language. É um tipo de linguagem
utilizada para construir as páginas da Web e os websites com recursos de acesso
dinâmico.
Dial-Up é nome do programa utilizado pelo Windows para fazer a conexão do internauta
com o provedor de acesso à Internet.
Disco rígido é o disco interno ao computador onde os dados são armazenados.
DNS significa Domain Name Server. É um sistema hierárquico de bases de dados
distribuídas que converte um nome de domínio em um endereço IP do
computador/servidor Internet de um provedor de acesso e hospedagem de websites.
Navegando na web- Pietra Giovanna de Almeida
29
Domínio é o nome de uma área reservada num servidor Internet que corresponde ao
endereço numérico de um website (endereço IP). No Brasil, os domínios sempre
terminam com .br (sigla do Brasil na Internet) e podem apresentar vários tipos (.com
para empresas comerciais, .org para empresas não comerciais, etc.). Ex: aisa.com.br é um
domínio brasileiro do tipo comercial (o mais comumente usado).
Download é o ato de copiar um arquivo de um website qualquer disponível na Internet
para o seu computador pessoal.
Downtime é a quantidade de minutos e horas por mês nos quais o provedor fica fora do
ar para manutenção técnica preventiva e corretiva.
E-commerce ou comércio eletrônico é a realização de negócios através da Internet.
E-mail significa correio eletrônico e indica tanto o ambiente da Internet onde você envia
mensagens eletrônicas como a própria mensagem eletrônica em si.
Endereço IP é o endereço de cada servidor conectado à Internet, de acordo com o
Internet Protocol.
Ethernet é um sistema de redes que transporta sinais (bits) para todos os
microcomputadores em rede.
FAQs (frequently asked questions) significa questões frequentemente perguntadas. É um
recurso muito útil no atendimento aos clientes pela Internet, já que antecipa as
perguntas dos clientes e as responde sob a forma de página Web.
Filtros são formas de diminuir o escopo de consultas pela definição de áreas ou tipos de
dados a serem incluídos ou excluídos.
Firewall são softwares de proteção cuja missão é impedir a entrada de hackers em
empresas conectadas à Internet.
Formulários são páginas HTML usadas para coletar informações dos internautas. São
também chamadas "scripts".
Freeware são programas de computador de domínio público, ou seja, são gratuitos e
podem ser usados à vontade pelos internautas.
FTP ou File Transfer Protocol significa protocolo de transferência de arquivos pela
Internet. É o método padrão de enviar arquivos entre computadores pela Internet.
Navegando na web- Pietra Giovanna de Almeida
30
Gateway é a porta de entrada de cada rede individual ligada à Internet.
GB ou G ou gigabyte é uma medida de armazenamento em espaço em disco igual a
1,024 megabytes.
GIF ou Graphic Interchange Format é um padrão gráfico que permite salvar imagens em
tamanho reduzido. É um formato de arquivo de imagem comumente usado em páginas
HTML.
Gopher é um sistema anterior à World WideWeb (WWW), que organizava e mostrava
arquivos dos servidores Internet em formato texto, hierarquicamente estruturado. Com
a Web, os bancos de dados do Gopher têm sido transformados em Web sites, muito
mais versáteis e fáceis de acessar.
Hackers são especialistas em violar sistemas de computação.
Hardware são a estrutura e as peças eletrônicas, magnéticas e mecânicas de um
computador.
Hiperlinks são palavras ou ilustrações pré-estabelecidas como pontos de saltos. Quando
clicadas, provocam a transferência para outro assunto ou página Web. Hiperlinks são
comumente chamados links.
Hipermídia é a mídia que inclui gráficos, sons e vídeos.
Hipertexto é o texto em formato de cruzamentos. O hipertexto permite os saltos de
um assunto para outro ou de uma página para a outra através de hiperlinks ou links.
Hit é qualquer ação de um internauta quando visitando um website, seja ver uma página
ou download um arquivo.
Homepage é a página de entrada ou página principal de um website. É nesta página que
estão os links para as demais páginas do website.
Hospedagem é o ato de armazenar websites de clientes por parte de um provedor de
acesso.
Host é um computador numa rede de computadores.
Hot link é um link entre duas aplicações de forma que a mudança em uma atualiza
automaticamente a outra.
Navegando na web- Pietra Giovanna de Almeida
31
HTML ou Hyper Text Markup Language é a linguagem padrão utilizada para construir os
documentos Web (websites).
HTTP ou Hyper Text Transfer Protocol é o protocolo padrão que permite a
transferência de dados na Web entre os servidores e os browsers. É este protocolo que
permite os saltos de uma página para a outra através dos links do hipertexto.
Hub é um ponto comum de conexão para equipamentos em rede. São normalmente
usados para conectar os segmentos de uma LAN.
Internauta é a gíria usada para identificar o usuário da Internet, a pessoa que usa a
Internet para comunicação, pesquisa, trabalho e/ou lazer.
Intranet é uma rede baseada em protocolos TCP/IP (uma internet) que pertence a uma
empresa e que é acessada apenas pelos membros e funcionários da empresa (e,
eventualmente, também por outras pessoas que tenham autorização para tal). Como a
Internet, intranets são usadas para compartilhar informações.
IP, ou Internet Protocol, é o protocolo da Internet. É este protocolo que identifica,
localiza e estabelece conexão entre computadores ligados à Internet.
IRC significa Internet Relay Chat. Também conhecido como "bate-papo", é um ambiente
que permite comunicação escrita online entre usuários da Internet.
ISP significa Internet Service Provider ou provedor de acesso à Internet.
JPG ou JPEG é a sigla para Joint Photographic Experts Group. É um formato de
arquivo de imagem comumente usado em páginas HTML.
KB significa Kilobyte. É uma medida de armazenamento em espaço em disco igual a
1.024 bytes.
Kbps é a sigla para Kilobits Per Second. É uma medida de velocidade de transmissão de
dados. 1 Kbps = 1.000 bps (bits por segundo).
LAN significa Local Area Network. É uma rede local de computadores localizados em uma
área relativamente pequena.
Laptop é um computador pequeno e portátil que você pode colocar no seu colo (top=em
cima e lap=colo em inglês). Também conhecido como notebook.
Navegando na web- Pietra Giovanna de Almeida
32
Links são palavras ou ilustrações pré-estabelecidas como pontos de saltos. Quando
clicadas, provocam a transferência para outro assunto ou página Web.
Lista de discussão é um programa que reúne vários endereços de correio eletrônico de
pessoas interessadas em um assunto específico. Este programa redistribui a todos os
mails que tenham sido passados por qualquer um dos participantes da lista.
Log é um arquivo criado por um servidor web que contém todas as informações de
acessos à Internet considerando a atividade do servidor.
Log in ou log on pode significar: a) o ato de acessar a Internet, Web sites ou qualquer
aplicação de software; b) o seu nome de usuário para o acesso à Internet (cadastrado
em um provedor em conjunto com uma senha) ou para o acesso a um Web site que
porventura exija um cadastramento prévio do internauta (neste caso, o cadastramento
do log in é feito no website).
Log off ou log out significa terminar uma sessão no computador, através do fechamento
das aplicações em uso (disponíveis na Internet ou na própria máquina do usuário) e do
desligamento do computador.
MB ou M significa Megabyte. É uma medida de armazenamento em espaço em disco igual
a 1.024 KB ou 1.048.576 bytes.
MbPS significa Megabits Per Second. É uma medida de velocidade de transmissão de
dados via modem. 1 MbPS = 1.000 KbPS = 1.000.000 BPS.
Micreiro é aquele que passa muito tempo trabalhando ou brincando com o auxílio de um
micro-computador.
Micro-computador é um computador de pequeno porte. É também chamado PC, sigla
para Personal Computer (computador pessoal).
Modem é a sigla para MOdulator/DEModulator. É um equipamento que transforma os
sinais digitais de seu microcomputador em sinais analógicos que podem viajar através de
uma linha telefônica. O som que você ouve quando faz a discagem para o seu provedor
de acesso informa que a ligação foi feita e que os sinais analógicos enviados do seu micro
chegaram em um dos modens de recepção do provedor. A partir daí, os sinais analógicos
são convertidos novamente em informação digital, tornando possível o seu acesso à
Internet.
Navegação é o processo de se mover de um website para outro seguindo links.
Navegando na web- Pietra Giovanna de Almeida
33
Navegador ou browser é o nome dado aos programas de computador usados para localizar
e visualizar documentos em HTML. São esses programas que permitem a navegação no
ambiente WWW e a visualização de Web sites. Ex: Microsoft Internet Explorer.
NCP significa Network Control Protocol, ou protocolo de controle de redes.
Nerd significa micreiro bitolado e compulsivo.
Netiquette é a etiqueta da Internet.
Newsgroups são grupos de notícias sobre assuntos diversos enviados a internautas pré-
cadastrados.
Node é uma unidade da informação.
Notebook é um computador pessoal pequeno, leve e portátil. Notebook = caderno em
inglês.
On-line significa ligado e conectado. Usuários estão on-line quando estão conectados com
a Internet através de um modem.
Page view é o número de hits exclusivamente para páginas HTML. É também chamado
"page impression".
Página é o conjunto de textos e ilustrações que são mostrados em uma mesma tela.
Password quer dizer palavra-chave ou senha. Normalmente é associada a um login por
questão de segurança.
PC significa "personal computer" ou computador pessoal.
Plataforma é o sistema operacional utilizado pelo internauta (Windows 95, NT, Unix,
etc.).
POP significa Point of Presence. São os pontos de presença dos backbones Internet em
cada cidade onde o backbone oferece serviço aos provedores de acesso.
Portal é uma página ou website que agrega vários links e serviços, servindo como porta
de entrada ou ponto de partida para a navegação de internautas.
Protocolo é um formato estabelecido para a transmissão de dados entre dois dispositivos
de computadores (drives, impressoras e modens, por exemplo). Protocolos definem o
tipo de consistência e checagem de erros, o método de compressão de dados, a forma
Navegando na web- Pietra Giovanna de Almeida
34
como o dispositivo de envio indicará que a mensagem está terminada e a forma como o
dispositivo de recebimento indicará que recebeu a mensagem.
Provedor de acesso é uma empresa que provê acesso à Internet aos seus clientes através
da manutenção de uma central de linhas telefônicas exclusivas ligadas aos seus servidores
de serviços Internet.
Provedor de informação é uma empresa que provê informações variadas em seu website.
Referrer é a URL de uma página HTML que refere a um website.
Roteador ou router é um equipamento que conecta qualquer número de LANs e otimiza
o roteamento das conexões Internet.
Search engines são websites onde os internautas fazem buscas na Web a partir de
palavras-chave.
Senha é uma palavra qualquer escolhida pelo usuário que, em conjunto com o login, serve
para liberar o acesso do usuário à Internet ou a websites que porventura exijam senha
para entrada.
Servidor é o computador que administra e fornece programas e informações para os
computadores conectados em sua rede.
SET é a sigla para Secure Eletronic Transaction. É um padrão de segurança utilizado em
websites de comércio eletrônico.
SGML significa Standard Generalized Markup Language. É um sistema de "tags" que
permite que as especificações da linguagem sejam interpretadas por vários sistemas de
formas variadas, mas assegurando a formatação dos documentos Web.
Shareware é o nome dado aos vários programas de computador ou produtos de software
disponíveis na Internet para avaliação e uso gratuito por tempo limitado.
Shopping virtual é um website que agrupa websites de empresas que vendem produtos e
serviços na Internet.
Site é o conjunto de páginas ou lugar no ambiente Web da Internet que é ocupado com
informações (texto, fotos, animações gráficas, sons e até vídeos) de uma empresa ou de
uma pessoa. É também o diminutivo de website.
Navegando na web- Pietra Giovanna de Almeida
35
Software é o nome dado para o conjunto ou tipo de programas, dados, rotinas e
ferramentas desenvolvidos para computadores. Os programas de software precisam ser
instalados nos computadores para que estes passem a desempenhar determinadas funções.
Incorretamente, algumas pessoas têm usado o termo "softwares" quando falam em mais
de um produto de software. Não existe plural para a palavra "software": "software" é
invariável, tal como "informática" em Português e "hardware", "shareware", "know-how",
etc. em Inglês.
Spam é o envio de e-mails comerciais não solicitados - um grave erro e fonte de
problemas na Internet.
Spider é um programa automatizado que faz buscas pela Internet.
Suporte ou suporte técnico é o serviço de apoio técnico disponibilizado pelo provedor aos
seus clientes de acesso à Internet.
Tags são comandos inseridos num documento que definem como o documento deve ser
formatado. Tags são usadas pelas especificações de formatação que armazenam
documentos como arquivos texto, incluindo SGML e HTML.
TCP/IP quer dizer Transmission Control Protocol/Internet Protocol (ou protocolo de
controle de transmissão/protocolo Internet). É o protocolo que satisfaz as necessidades
de um ambiente de redes de arquitetura aberta como a Internet.
Telnet é uma aplicação onde o internauta acessa um servidor remoto pela Internet.
UNIX é um sistema operacional de alta performance escrito em C (linguagem de alto
nível).
Upgrade é melhorar as condições de desempenho de micro-computadores, velocidade de
linha telefônica, etc.
URL significa Uniform Resouce Locator. Uma URL é um endereço virtual que indica
exatamente onde as informações da empresa ou da pessoa se encontram. A primeira
parte do endereço indica que protocolo está sendo usado e a segunda parte do endereço
especifica o domínio onde o recurso está localizado, no formato
http://www.domínio.tipododominio.sigladopaís.
Username significa nome do usuário.
Vírus é um programa de computador que foi desenvolvido intencionalmente para se
associar a outro programa de computador, de forma que quando este programa roda o
Navegando na web- Pietra Giovanna de Almeida
36
programa do vírus também roda, replicando-se indefinidamente por associar-se a outros
programas.
VRML ou Virtual Reality Modeling Language é um padrão de programação que permite
modelagem e navegação em terceira dimensão na Web.
W3C significa World Wide Web Consortium e é a organização oficial para os padrões Web,
especialmente HTTP, HTML e XML. O W3C foi fundado em 1994 por Tim Berners-Lee,
considerado o inventor da Web.
WAN ou Wide Area Network é um sistema de LANs interconectadas através de linhas
telefônicas ou ondas de rádio.
WAP ou Wireless Application Protocol é uma especificação segura que permite aos
usuários acessar informações e a Internet através de equipamentos portáveis, móveis e
wireless como celulares e pagers.
Web é o ambiente multimídia Internet, também conhecido como WWW.
Webmaster é o profissional responsável por um ou mais Web sites.
Web site é um conjunto de páginas ou lugar no ambiente Web da Internet que é
ocupado com informações (texto, fotos, animações gráficas, sons e até vídeos) de uma
empresa ou de uma pessoa.
Wi-Fi é o nome (marca registrada) de uma tecnologia que permite a conexão sem fio e
de alta velocidade com a Internet através de ondas de rádio.
WWW significa World Wide Web e é o ambiente multimídia da Internet, a reunião de
texto, imagem, som, vídeo e movimento na Internet.
XML significa eXtensible Markup Language. É uma linguagem baseada em SGML que está
sendo desenvolvida pelo W3C para uso em páginas e documentos Web. XML é uma
linguagem mais funcional que HTML.
Lembre-se: você poderá voltar quantas vezes quiser nesta página do Dicionário. Basta
você querer! E se você quiser saber mais definições dos termos ligados à Internet e à
Informática, dê uma navegada pela Webopedia (da internet.com) e pela Acromania (da
ZDNet). Estão em inglês, mas são uma grande fonte de referência!
Navegando na web- Pietra Giovanna de Almeida
37
Bibliografia
http://www.aisa.com.br/historia.html