curso de extensão em serviço telefônico fixo e serviço de ... · esta apostila é parte...

185
Universidade de Brasília Grupo Interdisciplinar Comunicação-Direito-Economia-Engenharia Curso de Extensão em Serviço Telefônico Fixo e Serviço de Comunicação Multimídia Coordenador: Prof. Márcio Iorio Aranha Esta apostila é parte integrante do Curso de Extensão em Serviço Telefônico Fixo e Serviço de Comunicação Multimídia produto de esforço conjunto da Faculdade de Comunicação, da Faculdade de Direito, do Departamento de Economia e da Faculdade de Tecnologia da Universidade de Brasília. O curso consiste em 40 horas de aulas ministradas pelas áreas de comunicação, direito, economia e engenharia da UnB e voltado a fornecer uma visão interdisciplinar focada no Serviço Telefônico Fixo Comutado e no Serviço de Comunicação Multimídia. As normas internas da Universidade de Brasília exigem presença mínima em 75% das aulas de cada disciplina do curso. A avaliação do alunado será efetivada mediante prova escrita individual, contendo questões das quatro áreas de conhecimento integrantes do curso e será aplicada na sexta-feira seguinte ao último dia de aula, às 14:00, com duração de até 4 horas. A consulta a documentos poderá ser permitida conforme a área de conhecimento e o formato das questões. Para aprovação no curso, é indispensável que o partícipe alcance a nota mínima 5.0, correspondente, no sistema de menções da Universidade de Brasília, à menção MM.

Upload: hakhanh

Post on 08-Nov-2018

217 views

Category:

Documents


0 download

TRANSCRIPT

Universidade de Brasília Grupo Interdisciplinar Comunicação-Direito-Economia-Engenharia Curso de Extensão em Serviço Telefônico Fixo e Serviço de Comunicação Multimídia Coordenador: Prof. Márcio Iorio Aranha Esta apostila é parte integrante do Curso de Extensão em Serviço Telefônico Fixo e Serviço de Comunicação Multimídia produto de esforço conjunto da Faculdade de Comunicação, da Faculdade de Direito, do Departamento de Economia e da Faculdade de Tecnologia da Universidade de Brasília. O curso consiste em 40 horas de aulas ministradas pelas áreas de comunicação, direito, economia e engenharia da UnB e voltado a fornecer uma visão interdisciplinar focada no Serviço Telefônico Fixo Comutado e no Serviço de Comunicação Multimídia. As normas internas da Universidade de Brasília exigem presença mínima em 75% das aulas de cada disciplina do curso. A avaliação do alunado será efetivada mediante prova escrita individual, contendo questões das quatro áreas de conhecimento integrantes do curso e será aplicada na sexta-feira seguinte ao último dia de aula, às 14:00, com duração de até 4 horas. A consulta a documentos poderá ser permitida conforme a área de conhecimento e o formato das questões. Para aprovação no curso, é indispensável que o partícipe alcance a nota mínima 5.0, correspondente, no sistema de menções da Universidade de Brasília, à menção MM.

AOUNIVERSIDADE DE BRASÍLIA Curso: Serviço Telefônico Fixo Comutado (STFC) e Serviço de Comunicação Multimídia (SCM) Disciplina: Noções de Cidadania e Espaço Público Profa. Dra. Lavina Madeira Ribeiro 01. Noções de Cidadania

A evolução da concepção de cidadania parte da distinção dos direitos civis, políticos e sociais. Direitos civis são aqueles outorgados aos cidadãos de uma comunidade e sancionados pelo poder das autoridades juridicamente constituídas. Direitos políticos são aqueles relativos ao poder de votar, de candidatar-se, de comunicar-se e de ter segurança e proteção. Direitos sociais dizem respeito àqueles direitos devidos ao indivíduo, providenciados e garantidos pela sociedade: a educação, a habitação decente, a previdência da saúde, oportunidades de emprego, a falta de impedimentos quanto ao prosseguimento de ideais, enquanto não infringem os direitos legítimos alheios, a liberdade de expressão e a igualdade de oportunidade. Entre os direitos sociais mais importantes, está o direito ao trabalho, à sindicalização, às férias, à seguridade social, à participação dos trabalhadores na empresa, ao acesso à propriedade dos meios de produção, à saúde, assim como à educação e à cultura.

Surge destes direitos uma terceira geração de direitos: os direitos humanos se tornam fundamentais e geram uma grande movimentação social na defesa de temas tais como o direito à paz, os direitos dos consumidores, o direito à qualidade de vida, ou a liberdade informática. Tais direitos são vistos como complementares aos anteriores.

A moeda corrente do exercício da cidadania é a informação, que atua como elemento fundante da competência de ação, julgamento e escolha dos indivíduos na vida social. 02. Origem da informação na moderna dicotomia entre público e privado

A mais importante configuração institucional da informação tem origem, historicamente, nas sociedades européias, a partir do século XVIII, com o jornalismo literário e político. O dado novo em relação à prática jornalística até então existente é o exercício público da crítica, que se volta inicialmente para a esfera dos costumes, valores e comportamentos e, posteriormente, para a esfera da política. Foi inspirado neste ambiente histórico que Habermas desenvolveu analiticamente a categoria de esfera pública burguesa1. Desde o final do século XVII, reflexões morais, literárias e filosóficas começam a ser publicadas nos jornais diários de algumas cidades européias, ainda que supervisionadas e sob a autorização das administrações locais. O surgimento desta imprensa tem lugar no que Habermas denomina de primeira formulação objetiva de esfera pública burguesa como "esfera pública literária". Pertencem a elas somente aqueles indivíduos com um certo nível de poder econômico e de formação cultural - condição esta imprescindível à leitura e à argumentação pública nas demais 1 HABERMAS, Jürgen, Mudança Estrutural da Esfera Pública. SP, Tempo Brasileiro, 1984.

instituições desta esfera, como os cafés e salões. Esta imprensa, do ponto de vista instrumental de Habermas, é o meio através do qual um "público esclarecido" difunde suas idéias e concepções da realidade social e assim se auto-esclarece e emancipa. Seu público leitor é sobretudo composto pela "camada culta" da sociedade, burgueses, profissionais autônomos e parte da nobreza. A finalidade de auto-conhecimento sobrepõe-se àquela do lucro comercial. Em meados do século XVIII e, principalmente durante o século XIX, a imprensa assume uma quarta configuração institucional caracterizada pela natureza política e contestatória do seu discurso. Segundo Habermas, como porta-voz de uma burguesia esclarecida e já emancipada em sua subjetividade. Esta imprensa política emerge numa segunda conformação da esfera pública burguesa, baseada num modelo liberal de funcionamento e de natureza essencialmente política. Coincidem os fins políticos de ambas - imprensa e esfera pública política: questionar a legitimidade da forma de governo dos Estados absolutistas. Esta imprensa atuou decisivamente nas lutas políticas dos séculos XVIII e XIX. A imprensa política do século XIX está em consonância com o seu tempo histórico. Em quase toda a Europa Ocidental, reivindicações burguesas e proletárias, pelo direito de participação política junto ao Estado, geradas pelas palavras de ordem "liberdade" e "igualdade" oriundas do exemplo revolucionário da França de 1789, caracterizam o apogeu do domínio público como um espaço político e da imprensa como sua principal instituição. Faz-se necessário observar que as sociedades européias do século XIX já apresentavam grande complexidade na natureza das suas relações sociais. O discurso liberal da "burguesia esclarecida", em certos momentos, voltou-se contra ela própria. A Revolução Industrial inglesa inaugurou o fim das restrições estatais à livre-concorrência, ampliou o sistema produtivo em bases capitalistas e acirrou os conflitos de classe. Toda a Europa sentiu as repercussões desse processo. Em 1848, a França vive um outro tipo de revolução social onde uma vasta população proletária já não se identifica com a média e alta burguesia. A imprensa, nesse sentido, não só reflete essa crescente polarização das classes sociais, como participa como força política atuante. A análise deste novo e importante atributo crítico da informação, feita à luz da categoria habermasiana de esfera pública burguesa, permite localizá-lo numa perspectiva histórica e processual fundamental para a compreensão de toda a discussão contemporânea sobre a especificidade das instituições de comunicação nas sociedades complexas da atualidade. A contribuição reflexiva de Habermas é por demais pertinente aos termos deste trabalho, à medida que opera, essencialmente, no âmbito da identificação das estruturas normativas gerais das sociedades contemporâneas. Faz-se necessário ressaltar esta preocupação básica do autor - que se faz presente, desde este trabalho inicial da sua obra sobre a categoria de esfera pública, até os mais recentes sobre a ação comunicativa - a fim de que se possa discernir, em sua análise da esfera pública burguesa e da imprensa, as considerações oriundas da observação histórica, daquelas que procuram construir o quadro normativo referencial que fundamentará os princípios organizacionais das sociedades de direito democrático contemporâneo, e, como parte delas, das condições institucionais da informação. A maioria dos críticos ao modelo de esfera pública de Habermas não reconhecem esta distinção entre o fato histórico e o referente normativo, o que leva a tratamentos equivocados do modelo (normativo) e a desacordos mais concernentes às interpretações dos dados históricos A categoria de esfera pública burguesa presta-se tanto à compreensão de uma processualidade social historicamente observável, como à indicação dos referentes normativos nos quais ancora o debate político e cultural contemporâneo. Esta distinção é válida e necessária também para os termos específicos da análise institucional da imprensa, dado que ela assume historicamente, em seu discurso, a defesa das normatizações constitutivas da esfera pública burguesa e, como instituição originária dela, também as incorpora como seus próprios princípios internos.

Este texto, de certo modo, também se expõe ao perigo da crítica à sua aparente adoção da forma de desenvolvimento da imprensa nas sociedades européias como possível e suposto padrão “universal” de desenvolvimento institucional desta nova prática de comunicação pública. É certo que as instituições de comunicação desenvolveram-se de forma bastante singular nos diferentes territórios do mundo ocidental movidos à força da ambição histórica capitalista e dos conflitos de hierarquia e poder com as instituições monárquicas e coloniais. Mas o que é fundamental na análise histórico-sociológica habermasiana é a evidência de propriedades, pertencimentos, relações e finalidades das instituições de comunicação correspondentes a certas forças básicas de formação das sociedades modernas encontráveis - mesmo que em diferentes ordens de aparecimento, intensidade e significação - na história da maioria das formações societais do mundo ocidental. Interessam-nos aqui, sobretudo, os paradigmas normativos historicamente sedimentados acerca destas práticas de comunicação e que lhes localizam institucionalmente nas diversas configurações societais contemporâneas. A análise de Habermas serve também como um terreno teórico básico, a partir do qual é possível articular diacronicamente as reflexões sobre cultura e comunicação produzidas no decorrer deste século. Metodologicamente, a perspectiva de observação deste trabalho, diferentemente da escolhida por Habermas, encontra-se voltada para o processo particular de estruturação, funcionamento e atuação das instituições de comunicação, considerando-se que este processo se desenvolve historicamente no interior da ampla categoria habermasiana de esfera pública burguesa. Esta, portanto, é apropriada aos termos desta reflexão como quadro teórico referencial, ou seja, como uma espécie de pano de fundo e não exclusivamente como protagonista do processo. Deste procedimento decorre a construção de argumentos inexistentes no texto habermasiano, com ambições de validade que, em muitos momentos, podem voltar-se contra o próprio modelo do autor, revelando suas limitações, equívocos e impropriedades. Para que se possa localizar os novos atributos da imprensa em suas novas configurações institucionais culturais e políticas, faz-se necessário associar a descrição histórico-sociológica da esfera pública burguesa àquela sobre a emergência da modernidade como condição humana, também própria das sociedades burguesas. A teoria da modernidade de Habermas foi elaborada em tempo posterior àquela sobre a esfera pública burguesa, mas ambas são aqui reunidas com o intuito de esclarecer a especificidade da origem das relações entre imprensa e instituições culturais, cujos contornos são de extrema relevância para a circunscrição de territórios que tendem historicamente a criar suas próprias fronteiras. O surgimento de uma nova imprensa vinculada aos movimentos artísticos e intelectuais é reveladora da supremacia do que essencialmente caracteriza a sua natureza e finalidade, qual seja, ser um lugar de referencialidade simbólica para os indivíduos e para a sociedade. É bastante significativo o fato dos movimentos culturais da época recorrerem à imprensa como forma apropriada à sua expressão. O recurso a ela como instrumento concreto destinado à promoção de suas idéias e criações, decorre da compatibilidade de sua estrutura institucional com a natureza e finalidade destes movimentos. Eles não inventaram esta forma específica de comunicação, eles se apropriaram dela conformando-a a seus limites e interesses. Um dos indicadores mais evidentes desta apropriação foi a modificação dos seus elementos estruturais internos, tais como o abandono da lucratividade econômica, a simplificação dos recursos técnicos de impressão, a alteração do perfil profissional dos redatores, a criação de novo gêneros discursivos, a especialização do público almejado, a circulação em ambientes particulares e a proliferação de novos proprietários oriundos de setores estranhos ao campo das práticas econômicas.

A apropriação da instituição jornalística como meio de divulgação das proposições e práticas destes movimentos culturais também está vinculada à incipiência institucional destes movimentos. Eles se encontram numa fase inicial de fundação e delimitação dos seus princípios, finalidades, práticas e concepções de mundo. Ainda não têm solidificados os espaços e os contornos específicos da natureza de sua relação com as práticas e normatizações socialmente reconhecidas. São proposições de um novo corpo de saber que visa substituir progressivamente as representações simbólicas herdadas da tradição pelos seus próprios termos. Esse processo histórico inicial de 'racionalização das esferas do conhecimento' - aceitas aqui as formulações alinhadas por Kant, Weber e Habermas - é na verdade, o responsável pela emergência da primeira configuração da esfera pública burguesa. A análise habermasiana no campo da história das idéias revela como a filosofia política, em tempo anterior à emergência concreta desta esfera, já defendia as premissas e procedimentos que fundarão a normatividade da esfera pública literária. A obra de Kant é a formulação mais acabada da evolução deste pensamento filosófico. A instituição jornalística não é a fonte criadora desta normatividade. Sua compatibilidade histórica com estes movimentos culturais reside no fato de que ela já instituirá, devido à própria natureza formal da sua prática, muitos dos elementos desta normatividade, como pode ser depreendido das suas características já apontadas neste trabalho: a constituição de um público leitor, a formação de um circuito de intercâmbio de informações, a exigência de um julgamento particular sobre a pertinência e validade destas, a ambição de diálogo com camadas sociais diferenciadas cultural e economicamente. Elas são apropriadas por estes movimentos em razão desta compatibilidade, e sobretudo porque eles ainda não desenvolveram as suas próprias formas institucionais de diálogo neste ambiente público. Do ponto de vista da instituição jornalística, as idéias e práticas criadas por estes movimentos culturais emergentes também são compatíveis com a especificidade da prática jornalística. Suas temáticas concernem à construção de um novo conjunto de normas, valores, comportamentos e regras de sociabilidade, baseado em critérios correlatos aos princípios e procedimentos próprios das sociedades modernas. A emergência de uma imprensa de crítica literária e intelectual corresponde à expansão do universo de referencialidades simbólicas criadas no processo de desenvolvimento destas sociedades. É coerente com a natureza institucional do registro discursivo da imprensa expressar a expansão dos termos desta referencialidade cotidianamente atualizada pelo exercício público da crítica, nos confrontos entre correntes, grupos e indivíduos. A imprensa não poderia manter-se à margem desse processo dinâmico de auto-reflexividade da sociedade e dos indivíduos, sob pena de alienar-se da sua própria condição institucional socialmente reconhecida. Neste momento histórico da sua evolução institucional, entretanto, ela se deixa apropriar-se por iniciativas e setores culturais sem opor fortes resistências ou limites estruturais. Isto se deve ao fato de que ela é ainda bastante maleável frente às intervenções sociais externas. Ela não consolidou uma estrutura de produção material, organizacional, profissional e discursiva capaz de impor restrições formais correlatas às intervenções e pressões externas. Além disso, o grau de diversidade, de imprevisibilidade, de indefinição de contornos das novas práticas sociais em desenvolvimento, a sujeita a um correspondente grau de abertura, de indefinição estrutural e discursiva. Há um novo processo social em movimento sem previsibilidade quanto às suas futuras regularidades institucionais. Este trabalho compartilha da idéia de Habermas sobre o andamento de um processo lento de "emancipação" psicológica, cultural e, posteriormente política dos indivíduos e de toda a sociedade. Feita a ressalva de que este conceito de emancipação não concerne aqui à idéia de uma libertação absoluta da dominação e da necessidade. Ele é provisoriamente aceito no sentido de

uma crescente apropriação de novas representações simbólicas que se delimitam, se expandem e se especializam a partir de uma referencialidade interna fundada nas regras lógicas do discurso racional. Emancipar-se significa dominar progressivamente as premissas e os procedimentos de uma nova discursividade intersubjetiva e, neste sentido, tornar-se membro participante de uma coletividade simbolicamente mediada que viabiliza a constante atualização das suas iniciativas e relações sociais. Com a imprensa de crítica de arte e intelectual criada na esfera destes procedimentos emancipatórios, o exercício da crítica torna-se um atributo do seu discurso, ou, mais propriamente dito, a imprensa assimila esta nova forma de tratamento ou expressão dos fatos da natureza, da sociedade e da condição humana, por um lado, admitindo novos tipos de escritura (filosófica, científica, etc) e, por outro, desenvolvendo, a partir destes tipos, novos gêneros informativos próprios (jornalismo opinativo e interpretativo, crônicas, etc). Com a criação destes novos gêneros ocorre uma mudança qualitativa, de forma e conteúdo, no conceito de informação, cuja diversidade explica a origem do deslocamento da posição central da notícia para a condição de um gênero particular, e não necessariamente o mais apropriado à construção do discurso jornalístico como um todo. Importa sobretudo relevar o fato de que, a partir da convivência com discursos produzidos pelos movimentos culturais, artísticos e intelectuais, a imprensa vai, posteriormente, depreender das estruturas discursivas destes diferentes movimentos elementos que sejam capazes de remeter aos respectivos campos de conhecimento nos quais eles foram elaborados, sujeitando-os, entretanto, aos princípios e regras discursivas que perfazem a especificidade da sua finalidade social. O jornalismo cultural não se confundirá com a escritura intelectual e artística, mas compartilhará os tipos de racionalidade respectivos a elas. Paralelo à pluralização dos tipos de publicação intelectual e artística, com maior e menor grau de sofisticação argumentativa e imaginativa e de interesse lucrativo em seus endereçamentos a públicos progressivamente segmentados, pluralizam-se também os tipos de imprensa, num diálogo permanente com a dinâmica e crescente complexificação destas esferas públicas culturais. A proliferação de um jornalismo político expressa o amadurecimento subjetivo e intelectual não apenas de uma camada erudita da sociedade burguesa, mas de toda a sociedade. Daí porque ele é um recurso presente não apenas nos confrontos de uma "burguesia esclarecida" com o poder monárquico, mas naqueles oriundos das diferentes camadas trabalhadores menos favorecidas economicamente, as quais, se não dominam o conhecimento artístico e intelectual em suas versões mais eruditas, já têm, entretanto, assimiladas as premissas e regras, ou seja, a normatividade do raciocínio, do julgamento, da opinião e do comportamento num âmbito público de convivência. Este argumento é recorrente nas respostas de Habermas aos seus críticos, quando estes lhe imputam uma interpretação parcial e tendenciosa da evolução histórica das instituições sociais contemporâneas. Como gênero discursivo, o jornalismo político tem por premissa básica problematizar os princípios, as estruturas e ações constitutivas do Estado e da organização da sociedade. Habermas encontra neste gênero uma das expressões do apogeu da condição humana em sociedade. O apogeu da sociedade política comprometida com a edificação de estruturas cada vez mais emancipatórias, libertárias e igualitárias. As considerações feitas sobre a emergência do jornalismo literário também são aqui pertinentes. Não partiu da imprensa em si o discurso político contestatório, crítico e problematizador. Ele tem origem nos movimentos políticos de grupos privados, associações e partidos que vislumbram na prática jornalística o recurso adequado à promoção dos seus fins de confronto político com o poder aristocrático. A imprensa política assimila estes procedimentos e finalidades à sua especificidade institucional à medida que eles passam a constituir uma das dimensões objetivas das práticas e relações sociais cotidianas. Mas

coexiste com uma significativa diversidade de produções jornalísticas, tendo apenas alcançado uma certa supremacia em momentos historicamente datados de acirramento político entre grupos e instituições sociais. 03. Cidadania e esfera pública no Brasil

É necessário, a princípio, reconhecer a centralidade e importância da comunicação na formação de identidades, comportamentos, sociabilidades e, sobretudo, no estímulo à prática de uma cidadania ativa. A informação, moeda corrente da comunicação e da cidadania, é de natureza identitário-referencial, capaz de abranger potencialmente as demais racionalidades relativas às esferas de conhecimento, mas que realiza também outras operações de caráter estratégico, oriundas da presença de elementos da vida econômica, da produção tecnológica, da circularidade cotidiana da vida privada, da processualidade do tempo histórico. Sua dinâmica referencial é seletiva, parcial, transitória, arriscada, efêmera, mas, ao mesmo tempo, reflexiva e identitária. Sua diferenciação de práticas e públicos é correlata à expansão das cidades; ao fato de tornarem-se agentes singulares do meio urbano com finalidades referenciais e identitárias próprias de uma instituição que é simultaneamente pública e privada.

Há, como afirma Anthony Giddens, um processo contínuo de reflexividade no interior de um sistema referencial interno2 que monitora a dinâmica dos sentidos publicamente manifestos, construídos e transformados. As práticas e significações da comunicação fixam e diferenciam o seu próprio espaço, diferente daqueles das demais instituições sociais, por meio de uma incorporação seletiva dos discursos oriundos de outros setores. Seus elementos fazem parte de um processo de interação, sociabilidade e construção de sentidos coletivos, com uma ambição de ampliação crescente do seu universo de interlocutores. Para isso se apóiam numa abertura concreta do olhar público para territórios velados pela marginalização social; então incluídos e chamados a participar, mesmo que de forma indireta e restritiva, da referencialidade construída pela comunicação; esta, de certo modo, nomeia o espaço urbano e, neste procedimento, incorpora potencialmente grandes contingentes na dinâmica das suas representações. A difusão de informações em redes nacionais em quase todo território nacional brasileiro, por exemplo, forma largas audiências e contribui sobremaneira para iniciar grandes populações nas suas regras de referencialidade. Analfabetos, segmentos economicamente excluídos e distanciados do circuito das grandes cidades passam a decodificar um conjunto de formatos e conteúdos próprios da discursividade comunicativa. Este é um processo que se desenvolve como uma forma de aprendizado e inserção numa esfera ampla de construção de identidades de ambição nacional, alimentada por conteúdos da vida pública e privada.

As instituições de comunicação interpenetram os âmbitos do indivíduo e da sociedade3. São as instituições-chave da alta modernidade, presentes nas esferas polares tanto da intimidade

2 GIDDENS, Anthony. Modernity and Self-Identity. Cambridge, Polity Press, 1992. Segundo o autor, as instituições sociais possuem o que ele denomina de “sistema referencial interno”, que consiste em um conjunto de referências, princípios, de práticas e de critérios de ação que delimitam a especificidade da instituição, sua dinâmica interna e finalidade. A reflexividade consiste na capacidade de domínio dos elementos deste sistema referencial interno a cada instituição social e de internalização dos seus princípios e critérios de modo a permitir os indivíduos procedimentos atualizados de intervenção, de participação e de reflexão responsável pela dinâmica processual das instituições. 3 Considerações também presentes em Giddens, op. cit. Segundo o autor, as instituições comunicativas sempre interpenetraram os âmbitos do indivíduo e da sociedade desde os seus primórdios (imprensa); são as

como da publicidade das instituições sociais; nos contextos locais distanciados e naqueles mais globalizantes. Desenvolveram-se (em estruturas, recursos materiais, organizacionais e humanos, padrões e linguagens) de modo compatível com as necessidades históricas concretas das diferentes sociedades de criarem espaços dialógicos comuns a crescentes contingentes populacionais e em sintonia com as mudanças nas noções de espaço e tempo. Nestes termos, entrelaçaram-se diferentes tipos de instituições jornalísticas e eletrônicas, viabilizando os processos de desenraizamento de culturas localizadas, de formação de culturas globalizantes e de volatização dos sentidos tradicionais de tempo e espaço. Redefiniram as noções de familiaridade e experiência, dada a abolição do lugar histórico concreto como base para as suas configurações. Tais noções passaram a incluir elementos referenciais “reinventados” no plano público das instituições de comunicação, sem a exigência de contatos diretos com eles. Criaram formas de narrativa não unilineares, baseadas na coexistência de pequenas e diferentes mensagens ordenadas numa seqüencialidade típica das interações lingüísticas das diferentes estruturas de comunicação, que não são expressões da realidade, mas, em parte, elementos formativos dela.

Neste sentido, a reflexividade promovida no interior da discursividade informativa conforma-se como faculdade e procedimento humanos constrangidos aos limites históricos e concretos dos espaços institucionais públicos e privados, das circunstâncias factuais, das ações e interesses de grupos sociais organizados e da dinâmica cultural em curso, como variáveis que a sujeitam a uma contingencialidade que desautoriza conferir-lhe uma finalidade emancipatória necessária. Deve-se, portanto, questionar a validade da racionalização em curso na reflexividade de indivíduos e instituições. A idéia de que uma esfera pública em expansão, que crescentemente absorve as crises existenciais privadas dos indivíduos, relacionando-as com as condições institucionais da vida social, através de sua racionalização pública, num debate mediado por diferentes instituições sociais e, em grande medida, pelas instituições de comunicação, não faz desaparecer a dimensão conflitiva que estes processos têm acarretado e que podem vir a acarretar; assim como os desníveis e diversidades desses processos em esferas locais, regionais, nacionais e globais, na formação de identidades em e entre diferentes sociedades.

A interpretação do desenvolvimento institucional da informação, em suas relações internas de complementariedade e diálogo entre diferentes tipos de estruturas, não necessariamente é uma resposta às exigências da cultura da modernidade, mas algo simultâneo a ela – cujos elementos são experimentais, arriscados e movidos por investimentos e descobertas já em grande parte intrínsecos às instituições de comunicação. Não são processos exclusivamente adaptativos à demanda social de fluxos globalizantes de comunicação, mas, primordialmente, processos de especialização e crescente complexificação de suas estruturas materiais, organizacionais e formais

instituições-chave da alta modernidade, presentes nas esferas polares tanto da “intimidade do self” como da publicidade das instituições sociais; nos contextos locais distanciados e naqueles mais globalizantes; desenvolveram-se (em estruturas, recursos materiais, organizacionais e humanos, padrões e linguagens) de modo compatível com as necessidades históricas concretas das diferentes sociedades de “mediação da experiência” e em sintonia com as mudanças nas noções de espaço e tempo e, nestes termos, entrelaçaram-se diferentes tipos de instituições jornalísticas e eletrônicas, viabilizando os processos de desenraizamento de culturas localizadas, de formação de culturas globalizantes e de volatização dos sentidos tradicionais de tempo e espaço, redefiniram as noções de familiaridade e experiência, dada a abolição do lugar histórico concreto como base para as suas configurações; tais noções passaram a incluir elementos referenciais “reinventados” no plano público das instituições de comunicação, sem a exigência de contatos diretos com eles; criaram formas de narrativa não unilineares, baseadas na coexistência de pequenas e diferentes mensagens ordenadas numa “consequencialidade típica de um meio ambiente espaço-temporal transformado”, chamadas pelo autor de “collage effect” ; não são expressões da realidade, mas, em parte, instituições formativas dela.

de produção, em função da dinâmica de seus elementos internos, dos conteúdos que move, das suas atividades institucionais. É premissa necessária à investigação dos desafios que se apresentam às instituições culturais da atualidade o conhecimento do quadro referencial de elementos, procedimentos e atributos mais evidentes que constituem e dinamizam a produção comunicativa nas sociedades contemporâneas. Isto porque já não é mais possível realizar suas finalidades de promoção do conhecimento científico, histórico e cultural sem considerar a presença simultânea das instituições comunicativas nos processos de socialização dos indivíduos desde a tenra idade. São muitas as frentes de reflexão no campo desta intersecção entre comunicação e cultura, sendo todas elas simultâneas e entrelaçadas de modo cada vez mais complexo. Um dos mais relevantes temas concerne à evidência da crescente intersecção de práticas e interesses entre mídia, telecomunicações e informática – e não apenas em função dos avanços da tecnologia, mas de novas idéias interativas que associam, por exemplo, broadcasting com internet, telecomunicações com marketing e serviços de informação on-line, programações fechadas em sistemas de transmissão abertos e tantos outros projetos que surgem a cada dia.4 Por outro lado, o investimento de capital estrangeiro e nacional não se dirige especificamente para um destes três setores básicos, pelo contrário, as ramificações sutis e ao mesmo tempo complexas que tecem, implicam uma inevitável intervenção múltipla de interesses, que atingem simultaneamente, por exemplo, investimentos em telefonia, em operadoras de televisões pagas e em redes de rádio e televisão abertas. Igual relevância assumem as questões relativas ao controle destes sistemas, às formas de propriedade, temas que remetem ao lugar do Estado e do cidadão na contemporaneidade, às redefinições dos conceitos de público, estatal e privado e à relação entre comuniçações e cidadania. As tendenciais formações de monopólios e oligopólios, a segmentação de públicos, os limites da intervenção da sociedade civil, a distribuição territorial dos conteúdos e serviços no país e outros tantos fatores também compõem a agenda deste processo. Ao lidar-se com o ambiente dos avanços tecnológicos continuamente incorporados aos diversos sistemas de comunicação, tem-se um conjunto de variáveis importantes a serem consideradas. Em primeiro lugar, o fato de que tais incorporações não são unilineares ou homogêneas. Elas se distribuem de forma localizada, em sistemas específicos e com finalidades particulares. Há imensas desigualdades, por exemplo, na irradiação destas novas tecnologias de comunicação no território brasileiro. Se, por um lado, a influência delas pode ser marcante nos processos de socialização de determinadas comunidades em certas regiões, por outro, convive-se ainda, em muitas regiões do país, com sistemas de comunicação remanescentes de modelos de três ou mais décadas passadas. Isto gera a necessidade de produzir referenciais distintos para a compreensão e a incorporação qualitativa da informação oriunda destes sistemas. O instituto cultural só pode ser eficaz em seus propósitos e cumprir os princípios de sua racionalidade se reconhecer a centralidade das instituições de comunicação brasileiras no processo de formação cultural e política dos grandes contingentes humanos do país. Isto significa dirigir uma atenção objetiva e estratégica direcionada para o conhecimento da natureza e dos mecanismos dinamizadores deste processo de incorporação de novas tecnologias. Elas interferem substantivamente na qualidade e desenvolvimento da informação publicamente disponibilizada.

4 Vide MORAES, Dênis de. Planeta Mídia – Tendências da Comunicação na Era Global. Campo Grande,Letra Livre, 1998.

Os esforços nesta direção devem levar em conta não apenas a necessidade de domínio da dinâmica material dos sistemas comunicativos e da medida em que eles geram novos veios informativos no circuito já existente, mas também, a possibilidade de intervenção e participação dentro destes sistemas e, além disso, formas de incorporação destes instrumentos de comunicação, vistos então como recursos tecnológicos aplicáveis ao campo exclusivo das práticas culturais. Isto porque a tecnologia em geral, carrega um duplo potencial, que pode ser instrumentalizado tanto a serviço de interesses localizados e excludentes, como para a superação de impasses originários de procedimentos de ensino e aprendizagem, entre outros. Além disso, tem-se a evidência de que cresce uma irreversível cultura formativa de natureza não mais preponderantemente baseada no procedimento da leitura, que infiltra novos recursos de aprendizado sustentados na imagem e em todo o aparato tecnológico que ela requer, na associação entre texto e imagem como mecanismos de representação do sentido. Este dado, alimentado sobremaneira pela convivência íntima com os meios de comunicação no ambiente caseiro, transformada em prática assimilada à experiência da cotidianeidade, transporta-se como demanda inconsciente para outros espaços de aprendizado e absorção de conhecimentos, valores e significações em geral. O instituto cultural sofre as pressões desta demanda, com contingentes humanos cada vez mais segmentados em suas práticas de contato com o universo das informações disponíveis e se vê constrangido, inevitavelmente a renovar seus mecanismos e procedimentos de produção de sentido.

Para além do dado tecnológico, é um desafio constante da prática cultural conhecer e acompanhar, no caso especificamente brasileiro, a dinâmica das transformações nas formas de estruturação e ampliação dos sistemas de comunicação nacionais. Isto porque muitas das determinações com relação à qualidade da informação produzida nestes sistemas resultam dos fluxos de capital, das orientações de interesse particulares de anunciantes e investidores que os sustentam e intervém sobre suas políticas de programação. O fenômeno mais marcante na atualidade consiste no que vem sendo denominado de popularização das produções das redes nacionais de televisão e de deslocamento dos públicos de maior poder aquisitivo para os sistemas de televisão por assinatura. Campo fundamental neste ambiente de reflexões contemporâneas consiste naquele relativo às políticas de programação ou, em outros termos, ao controle social dos conteúdos difundidos e produzidos pelas instituições de comunicação de amplo alcance populacional. Para tanto, cabe explorar a dinâmica da produção comunicativa do país.

O atributo identitário e referencial das instituições de comunicação, sustentado no próprio caráter público que lhes foi fixado pelas cartas constitucionais dos Estados de direito, localiza a discursividade da comunicação no campo formal do interesse público, configurando-a enquanto serviço a ser prestado relativo à categoria dos direitos sociais. A circunscrição deste critério denominável de interesse público, na prática, entretanto, sujeita-se a interpretações muito elásticas.

A identidade construída, aprendida e transformada, no ambiente cultural brasileiro, profundamente desigual no que concerne à produção e acesso aos conteúdos midiáticos afeta a tradicional recorrência ao conceito de cultura popular e cultura de massa. O popular, na atualidade, pela força hegemônica de penetração da comunicação em todo o país, mais “eficaz” do que outras instituições fundamentais como a educacional e a familiar, desloca-se para a noção de fazer-se enquanto processo simultâneo de construção e aprendizagem de um sistema referencial identitário, onde públicos heterogêneos buscam elementos de toda ordem que reorganizem constantemente sua competência de experimentar, realizar práticas, criar valores e comportamentos. Nele se integram, parcial e seletivamente, elementos de diferentes ordens de conhecimento e experiência. Por este caminho, por um lado, dissolvem-se os atributos de tradicionalismo, hermetismo, isolamento e autoctonia do conceito de popular, integrando-o, em níveis diversos, aos demais

sistemas referenciais publicamente criados e, por outro lado, elimina-se a coincidência com o conceito de massa.

No caso brasileiro, os conteúdos de maior audiência nas redes de televisão aberta, capazes de atingir quase a totalidade da população, são notadamente novelas, jornais de variedades, programas de auditório e apenas dois telejornais dominam o campo das produções assistidas por mais de 60% da população brasileira. O atributo referencial, definido aqui como qualidade voltada à atualização da ação dos indivíduos na vida social em geral praticamente esvazia a relação política entre indivíduo e sociedade. Se for possível entender jogos, entretenimentos e dramas como elementos culturais, então tem-se um deslocamento da experiência do espaço público brasileiro de um desejável campo político e cultural para outro essencialmente feito pelo usufruto da diversão. A televisão aberta no Brasil é um lugar de formação e manutenção de identidades ampliadas de ambição nacional. Esta identidade se firma, em grande medida, em torno de ícones construídos e alimentados no ambiente das programações de maior audiência, programas de entretenimento, de entrevistas e se desdobram em outras estruturas de comunicação, como publicações especializadas em televisão, semanários, revistas para públicos femininos e masculinos, jornais, programas de rádio e demais, criando-se uma rede que mantém permanentemente um espaço aberto para estes conteúdos. Estas estruturas, por sua vez, se auto-legitimam e legitimam-se mutuamente na afirmação destes conteúdos comuns. Os conteúdos mais presentes neste ambiente são a música, os esportes (futebol, fórmula 1, tênis, vôlei, box), a vida profissional e privada dos artistas das produções televisivas, temas ligados à natureza e, em menor grau, elementos da cultura tradicional brasileira (indígena, sertaneja). Estes conteúdos integram o sistema referencial interno das instituições de comunicação. Criam ramificações em todos os gêneros de programação, formando redes vicinais que integram todos os elementos em um sentido internamente coerente. Integram-se ao seu circuito informativo, opinativo e publicitário, gêneros estes cujas fronteiras são cada vez mais difusas. Estão presentes nas mais variadas situações como elementos de legitimação desta cultura e de legitimação das estruturas de comunicação que as difundem.

Convivem também fortemente com elementos oriundos de um ambiente cultural globalizado, criando relações de complementariedade e extrapolando as fronteiras nacionais. Os exemplos mais presentes estão na área musical, nos esportes e nos temas ligados à natureza. Há, na área musical, por exemplo, uma sintonia significativa entre os programas de auditório das televisões abertas, os programas de rádios de emissoras AM e FM, e as publicações semanais sobre música e a vida privada dos músicos. Certos tipos de música, por sua vez, como a de origem baiana, dialogam de modo muito estreito com certos ritmos musicais norte-americanos, assimilam grande influência de ritmos africanos, e, além disso, incorporam a dança como correlata ao ritmo musical, dança esta inspirada em padrões também norte-americanos e africanos.

Cria-se, assim, um circuito musical hegemônico no país cuja origem extrapola as fronteiras nacionais sem deixar de ser uma criação nacional. Este circuito recebe o aval das redes de televisão aberta e se torna hegemônico em todo o país, promovendo eventos fora do calendário oficial, tais como os carnavais itinerantes feitos de blocos e trios elétricos que ocorrem nas grandes cidades e capitais do país durante todo o ano.

Conhecer outras vertentes musicais fora deste circuito hegemônico torna-se uma ação que segue em sentido contrário à multidão. Lojas de disco, publicações na área musical, televisão e rádio alimentam estes formatos hegemônicos reduzindo sobremaneira a diversificação da área. As

estruturas de comunicação formam vasos comunicantes onde só circulam estes conteúdos. Meios restritos e ampliados operam com os mesmos elementos, numa transversalidade que corta critérios de classe, etnia, gênero, idade e nível sócio-econômico.

O global é incorporado pelo local formando um circuito musical nacional-popular-internacional, cuja complexidade é porosa a intersecções com um leque amplo de possibilidades criadoras e renovadoras. Assim ele se desdobra continuamente em novos ritmos sonoros, sempre associados a uma rítmica também corporal. Esta qualidade de bem cultural inserido em um ambiente globalizado abre possibilidades de diálogo com outras frentes culturais, tais como estilos de vida, comportamentos e valores. Assim, por exemplo, a música originalmente baiana está presente em programas de culto ao corpo, em publicidades de cerveja e refrigerantes, de automóveis de marcas estrangeiras, de telefones celulares e de uma gama ampla de elementos constitutivos do modo de vida desenraizado da cultura global.

De outra forma, mas também hegemônica e regular, está a presença em nível nacional de valores ligados ao elogio e defesa da fauna e flora brasileiras. A natureza tem lugar de destaque entre estes conteúdos privilegiados pela televisão aberta do país. Documentários, reportagens, programas de desafios físicos e entrevistas são os lugares onde a natureza aparece como um bem nacional a ser conhecido, preservado e admirado. A natureza revisitada, sobretudo, pelos programas de documentário e de variedades da televisão brasileira é vista da perspectiva global. Do ponto de vista de sua localização em relação ao planeta como um todo. Este enfoque insere o país dentro de um debate mundial de preservação ambiental, reiterando um conjunto de valores hoje globalizados sobre a necessidade de conhecer e proteger a natureza.

Como o Brasil é um vasto território ainda em grande medida inexplorado ou preservado em seu estado natural original, os valores globais associados à natureza levam a que o país assuma uma posição privilegiada dentro do debate nesta área. Proteger a natureza passa a ser um valor nacional também associado a uma esfera de valor global, de grande força legitimadora de práticas nele ancoradas. Indústrias de diversos setores vêm a público construindo suas imagens a partir deste valor. Ele se espalha por um leque também muito grande de práticas comunicativas de alcance nacional, tais como as novelas, programas de auditório, de variedades e de entrevistas, documentários, culinária, moda e comportamento.

Os temas que são objetos de interesse para a programação de alcance nacional são muito restritos. A identidade criada e mantida pela televisão brasileira tem uma pequena amplitude temática. Ocorre um predomínio excessivo de programas criados por ela mesma, com baixa variação de formato e conteúdo. As emissoras ocupam, aproximadamente de 30 a 35% do tempo em auto-promoção. Isto é feito de várias maneiras. São chamadas publicitárias para seus próprios programas, entrevistas com artistas e pessoas da emissora e intervenções opinativas em todos os gêneros apresentados. A vida profissional e privada dos artistas, dos ídolos do esporte e personalidades carismáticas, como políticos, escritores e outros vêm somar-se ao acervo de elementos legitimadores da identidade promovida pela televisão, atuando também como forças legitimadoras das emissoras e, portanto, da sua institucionalidade pública.

Convive-se, este ambiente comunicativo, dentro do que se denominaria um imenso reino do privado. As instituições de comunicação vêm tornar públicos conteúdos próprios da vida ordinária e comum dos indivíduos. Há uma série de relações possíveis de serem identificadas neste processo. Ao individualizar sua discursividade, seja dirigindo-se ao indivíduo, à relação face-a-face, seja criando ícones e padrões humanos a serem valorizados e seguidos pelos indivíduos comuns, a televisão promove um espaço público feito da cotidianeidade vivida pelo homem

privado. O recurso do debate, da argumentação, quando ocorre, está praticamente todo ele voltado para as temáticas do reino da necessidade, seja ela física ou psicológica.

Assim, a esfera do debate político fica praticamente esvaziada. O grande público está à margem da vida política nacional. Desconhece os temas e os processos políticos que se desenvolvem no espaço legislativo estatal. Participa minimamente das deliberações do poder executivo, sofrendo apenas as repercussões de políticas pensadas e implementadas sem a participação da sociedade. As instituições de comunicação contribuem muito pouco para inserir a população nestes ambientes. No ambiente televisivo esta constatação atinge seu grau máximo. A vida política aparece apenas nos programas do período eleitoral. Inexistem práticas argumentativas sobre conteúdos políticos. Políticas e deliberações são tratadas pela televisão do ponto de vista imediatista das mudanças que provoca sobre a rotina da vida social da população.

A população brasileira se informa quase exclusivamente por meio da televisão aberta, que atinge índices de mais de 90% de abrangência. Jornais e revistas especializadas ocupam uma faixa extremamente reduzida neste percentual. Razões para este quadro estão na baixa renda da população, no analfabetismo, na dificuldade de acesso e no desenvolvimento de uma política pública estatal na década de 70 de incentivo à formação de redes nacionais de televisão, aliadas a uma tradição extremamente liberal do Estado no controle dos conteúdos promovidos por estas redes, as quais, por sua vez, apesar de terem um código de ética razoavelmente coerente com padrões de incentivo à cultura, sempre definiram grades de programação em função do retorno financeiro auferido em pesquisas de preferência das suas audiências-alvo.

O círculo vicioso que se formou entre produtores que alegam atender expectativas do público e de resultados de sondagens de opinião e de índices de audiência que legitimam programações sem qualquer conteúdo informativo, educativo ou artístico relevantes e coerentes, parece manter um processo de alargamento do espaço discursivo das redes nacionais no sentido da produção de mero entretenimento, cujo sustento são elementos vindos da experimentação do grotesco e da dramatização da vida cotidiana. Há uma subjetividade vivida coletivamente de forma distorcida por estes recursos formais (o grotesco e o dramático) de representação da experiência, cujos elementos, em parte, têm origem em narrativas de culturas tradicionais e, em parte, decorrem dos próprios formatos já desenvolvidos anteriormente pelos diversos meios na área do próprio entretenimento.

As respostas pelas quais as grandes audiências confirmam sua preferência por estes padrões de programação são um enigma para a academia. Algumas delas são encontradas sob a alegação de que a vida produtiva esgota a capacidade e o interesse dos indivíduos de pensar a realidade de forma mais substantiva. O dado relevante, entretanto, é que a televisão brasileira, amadurecida num ambiente liberal, nunca teve uma tradição de privilégio a produções de caráter informativo, cultural e político. O entretenimento sempre foi o padrão dominante desde que a televisão se expandiu como principal sistema de comunicação público no país. Isto pode ser comprovado ainda pelos tradicionais índices irrelevantes de audiências das televisões de caráter educativo e cultural, que não chegam a atingir mais de 5% de audiência em relação às emissoras privadas. Este processo, além disso, tem o agravante de estar em regime de plena expansão de percentuais de audiência, num processo de alta competitividade entre emissoras por faixas de telespectadores mutantes, forçando ainda que todas elas ingressem na mesma lógica, sob pena de perda de capital dos anunciantes, os principais mantenedores destas estruturas empresariais. O comércio do entretenimento exclui do espaço público brasileiro conteúdos que, por princípio, são fundamentais para a vida cultural e política do país, dado que constituem a base de formação de referenciais necessários ao julgamento dos interesses coletivos gerenciados pelo Estado.

Por outro lado, tem-se, simultaneamente, o movimento de públicos de maior poder aquisitivo em direção aos sistemas de televisão por assinatura. Aqui a margem de escolha é maior, assim como a presença de conteúdos informativos e culturais. Este dado, entretanto, leva a outras variáveis preocupantes do ponto de vista da fragmentação do interesse público, da criação de extratificações sócioculturais, da formação de identidades transnacionais que pouca atenção possam vir a dar aos problemas estruturais do país, da emergência de um multiculturalismo de soma zero e outras tantas possibilidades de ruptura de um necessário conjunto de valores e princípios capazes de consensualizar os processos de debate e de deliberação sobre questões de interesse geral.

O mesmo se dá no plano da complexidade dos problemas urbanos, das questões ligadas ao gerenciamento das áreas de saúde, educação, emprego e econômica. Os telejornais privilegiam apenas a dimensão dos problemas sociais resultantes de patologias individuais. Crimes, doenças, catástrofes e desastres têm lugar predominante sobre questões cruciais da vida social. Os programas televisivos dramatizam sobremaneira estes desvios, sem vinculá-los, entretanto, aos fatores estruturais que, na maioria das vezes, estão nas suas origens. Mas o fato de conferirem relevo a estes desequilíbrios não ameaça a ênfase simultânea numa idéia permanente de estabilidade social. Isto é possível porque estes problemas não vêm inseridos dentro de um quadro contextualizador dos mesmos. Vêm descolados da realidade, como fatalidades inevitáveis, como atos de indivíduos isolados ou vontade inevitável de forças naturais. O fantástico oculta a realidade dos desequilíbrios sociais estruturais da vida urbana. Este descolamento de patologias e catástrofes da regularidade da vida cotidiana confirma a necessidade desta regularidade, tal como ela é pressuposta. Cria-se uma identidade sobre esta imagem de controle sobre o social, compartilhada por todos no ambiente televisivo. A imagem da própria estabilidade social, da boa índole dos brasileiros, da ausência de ameaças ao indivíduo e à sociedade.

Do ponto de vista do telejornalismo, é no estrangeiro, em terras longínqüas, que a maioria das catástrofes acontecem. As crises financeiras, os desastres, os problemas sociais das nações estrangeiras são representados dentro de uma referencialidade espetacular. Isto favorece sobremaneira a internalização do ordenamento social vigente internamente no país. O global novamente entra em cena para reiterar este ordenamento social em curso. O global é assimilado como horizonte da possibilidade de ação dos indivíduos em si e como coletividade na sua sociedade nacional. Assim, reitera “vocações” nacionais, procedimentos de aceitabilidade de relações com outras nações, permitindo localizar o Brasil em relação a um cenário mundial dado dentro de uma confortável imagem de país pacífico. Atitude esta que reitera todos os demais conteúdos difundidos.

O sistema referencial interno às instituições de comunicação brasileiras de alcance nacional é bastante estável, sólido, previsível. Existem rotinas fixadas em padrões regulares predominantes em todos os campos, seja no informativo, no ficcional, no publicitário e no de entretenimento. A questão da fragmentação da experiência se dá, em grande medida, em termos daquilo que não aparece no discurso comunicativo, das graves omissões relativas às questões políticas, econômicas e sociais cruciais do país que não têm o devido relevo, a necessária presença como objeto conhecimento, de racionalização e de debate permanentes. Mas no interior dos sentidos dominantes produzidos pelas instâncias comunicativas, a experiência se fecha num círculo previsível de variáveis. Algumas questões hoje centrais sobre a formação pública de identidades assumem contornos muito específicos no caso brasileiro. A noção de diferença, de escolha da diferença e de respeito a ela, muito tematizada no ambiente de sociedades complexas não encontra, no espaço comunicativo de maior alcance no país, a variabilidade em geral pressuposta como existente na atualidade. Na

sociedade brasileira, a idéia da oposição entre viver dentro de uma sociedade de consumo, de sua lógica instrumental, de mercado, ou de optar por regras e princípios morais, étnicos, religiosos comunitaristas fora destas sociedades complexas não é necessariamente uma possibilidade de escolha intrínseca e naturalmente aberta para todos, por mais que elas existam a princípio. No Brasil, a força incorporativa da discursividade das instituições comunicativas reduz sobremaneira a formação da diferença. A idéia do indivíduo isolado em busca de sua identidade convive com os fortes padrões identitários criados e movidos pela comunicação pública. O maior desafio da construção da cidadania no país está centrado na capacidade dos seus agentes de conhecerem profundamente a natureza, os elementos e a dinâmica desta cultura contemporânea identificando nela os lugares onde é possível desenvolver valores e práticas igualitárias, solidárias e humanistas, porque somente por este caminho poderá intervir eficazmente sobre a sua capacidade de conformar sentidos e comportamentos. O debate central hoje no que diz respeito ao modo como entender e operar o conceito de comunicação consiste na oposição entre as noções de consumo e cidadania, ou seja, como caracterizar essencialmente a natureza da comunicação enquanto bem simbólico com profundas repercussões na vida material das sociedades contemporâneas. Por um lado há uma forte tendência a caracterizar a cultura presente como uma cultura de consumo, movida, neste caso, por procedimentos oriundos da lógica e das práticas do mercado, subsumida numa semântica economicista onde os indivíduos são nomeados e tratados como consumidores. Entende-se, entretanto, que esta semântica caminha por trilhas equivocadas. O conceito de cultura de consumo é uma atualização, na mesma linhagem que deu origem ao já tornado lugar comum conceito de sociedade de massa. O termo comunicação de massa, derivado deste ambiente, todavia, parece já ter esgotado, pelo menos do ponto de vista heurístico e sociológico, suas ambições explicativas. Criou-se, portanto, uma heteronomia injustificável se confrontada com a magnitude do objeto. A história deste conceito remonta a uma perspectiva de sociedade manipulável, atomizada, feita pela imagem de indivíduos isolados, diferenciados e dispersos. É certamente um conceito de espírito arregimentador, resultante do produtivismo racionalista, nacionalista e épico da sociedade norte-americana do começo do século. A popularização do seu uso ou do seu corolário (consumo) bloqueia qualquer perspectiva que busque retomar o controle sobre o livre curso da cultura. O uso do conceito, além de suas implicações no campo da recepção, quando reduz sujeitos a consumidores, contém, além disso, uma visão dos meios como instâncias necessariamente organizadas verticalmente, de forma concentrada e sintonizada com as determinações da expansão dos ambientes tecnológico e econômico, externos ao das práticas comunicativas propriamente ditas. Isto porque o atributo instrumentalista de controle e o de fluxos de mão única são intrínsecos ao conceito. As intenções reflexivas que procuram recuperar a dimensão da prática comunicativa como um exercício de cidadania, têm-na como procedimento relativo ao campo do compromisso constitucional com as premissas de igualdade e liberdade dos Estados de direito. Reflexões, por exemplo, sobre o caráter moderno ou pós-moderno da cultura, sobre a evidência ou não de uma cultura de consumo, sobre a cultura como simulacro, sobre a virtualização da experiência, sobre o imanente barbarismo da modernidade, sobre as múltiplas sensibilidades e mediações da comunicação e tantas outras propostas devem ancorar-se na perspectiva de identificar, desenvolver e consolidar aqueles recursos potenciais da comunicação pública que encaminham a formação de vontades como prática de cidadania. Comunicar para a cidadania talvez seja a estratégia mais eficaz para interferir qualitativamente no curso da cultura contemporânea.

Cidadania implica uma orientação de premissas e procedimentos culturais no sentido da recuperação do senso de comunidade e da competência de intervenção participativa dos indivíduos nos assuntos concernentes à vida social. Um dado fundamental neste aspecto concerne ao fato de que as estruturas de comunicação, consideradas instituições públicas pelas cartas constitucionais dos Estados de direito, são passíveis à interferência de regulamentações e coerções estatais, que sugerem a possibilidade de planejamento político e democrático do seu curso. Isto significa que a sociedade civil tem recursos legais para conduzir a expansão destas estruturas, suas práticas e produções. O contexto social brasileiro não favoreceu o exercício de uma cidadania cultural restringindo, por exemplo, a expansão da imprensa para além dos setores economica e culturalmente mais favorecidos, ou privilegiando a estruturação de redes de televisão aberta controladas por grupos familiares, dentro de uma herança cultural patrimonialista, clientelista e autoritária, ou, mais recentemente, criando uma legislação para sistemas fechados de televisão que não atua sobre aspectos de conteúdo, privilegiando somente os critérios econômicos de defesa da concorrência. Advém do pensamento clássico liberal uma definição essencialmente política do conceito de cidadania, como condição própria e decorrente das premissas de igualdade e liberdade do Estado de direito. Há uma repartição tripartida do exercício da cidadania correlata aos direitos constitucionalmente previstos: direitos civis (liberdade pessoal, de expressão, pensamento, fé, propriedade, justica), assegurados pelas instituições judiciárias; direitos políticos (voto e acesso a cargos públicos), corporificados no aparato legislativo; e direitos sociais (segurança, saúde, educação e serviços sociais), promovidos pelas instâncias executivas.5 Nesta concepção, a questão do direito à cultura e de todos os processos e práticas nela envolvidos, recolhe-se, basicamente, à estreita faixa do direito a um tipo particular de “serviço”, um serviço que basicamente, assegura um acervo de elementos simbólicos e práticas oriundos do passado e da memória de uma nacionalidade e mantém padrões de produção cultural que, a princípio, não se regem por critérios extrínsecos à dinâmica liberal da processualidade social mais ampla. O direito à informação caracteriza-se enquanto direito social, compartilha a estatura de outros direitos sociais, como o direito à educação, direito a saúde e bem-estar. Tais direitos estão no âmbito da alçada do poder executivo enquanto deveres deste perante a sociedade. Assim, portanto, apesar de serem de serem ativadas em regime de propriedade privada, as instituições de comunicação são merecedoras de atenção político-jurídica na carta constitucional e em leis específicas e se constituem enquanto instituições públicas, dado que a informação é o elemento básico para o exercício dos direitos civis e políticos. Direitos sociais se materializam enquanto serviços prestados por instituições públicas, as quais se legitimam enquanto tal na prestação destes serviços. No caso das instituições de comunicação, a condição de instituição pública lhes confere um alto grau de legitimação quando prestam este serviço genericamente denominável de informação. Legitimadas enquanto tal, legitimam-se também suas estruturas, formas de produção da informação e toda a verticalidade historicamente observável do processo comunicativo como um todo. Enquanto serviço, tornam-se defensáveis grande parte de seus procedimentos e dificulta-se sobremaneira pensar a possibilidade de outros modelos estruturais da comunicação pública horizontalizados, onde a participação dos indivíduos pudesse ser mais efetiva e deliberativa.

5 BENDIX, Construção Nacional e Cidadania. SP, Edusp, 1996.

No caso brasileiro, dado o predomínio do regime de propriedade privada, isto implicou, historicamente, uma permissividade significativa da esfera cultural à intervenção de variáveis do que Habermas denomina de “mundo sistêmico”. O igualitarismo liberal, presente tanto na esfera da produção econômica, como da vida privada e de suas iniciativas individuais, abriu possibilidades de um industrialismo da produção cultural passível de coordenação somente a partir de associativismos civis movidos por voluntarismos reivindicadores de direitos civis e sociais de grupos e setores privados. O cooperativismo implícito na mobilização social, entretanto, não fez parte das políticas de Estado, já que este pode-se ancorar na premissa da representatividade como fator legitimador de suas ações, fachada, muitas vezes, para a manutenção de práticas políticas paternalistas e excludentes. A representação política no Brasil configurou-se, historicamente, como um sistema com regras singulares, não vinculadas diretamente ao exercício do voto e esvaziou, sobremaneira, até mesmo o conceito de cidadania como categoria político-jurídica. A cidadania cultural revestiu-se de um caráter de direito ao mero acesso à cultura – sem o pressuposto da intervenção sobre a qualidade deste serviço -, sem qualquer iniciativa estatal ou civil de proposição de uma clara política de conteúdos, de conquista territorial, de investimento em tecnologias que alcançassem indivíduos espacialmente dispersos, de manutenção de sistemas de comunicação de abrangência nacional capazes de promover a formação de um sistema referencial de práticas, valores e comportamentos compatíveis com o investimento mais amplo em um modelo de sociedade industrial capitalista. Atualmente, o conjunto de novos processos políticos e culturais em andamento no parlamento brasileiro e na sua esfera econômica - inerentes aos mecanismos de controle institucional e discursivo da dinâmica cultural do país -, apontam para a passagem de um patriarcalismo cultural (promovido pela hegemonia inconteste do “padrão Globo de qualidade”) para o de um liberalismo global de consequências ainda imprevisíveis para o processo cultural brasileiro. A questão central resultante deste quadro consiste na suspeição da própria validade do conceito de cidadania como condição e ação partícipes deste processo. Onde estariam os limites objetivos conjunturais e estruturais à ação cidadã dos sujeitos e, decorrentemente, a uma noção de recepção para além de uma grade determinista, seja advinda do sistema conceitual funcionalista ou da trajetória européia crítica e niilista ? As respostas encontradas para os graves problemas sociais provocados pela hegemonia do mercado tendem, neste ambiente, a encontrar alternativas por meio da ativação da sociedade civil, conferindo-lhe atributos, deveres cívicos, competências e responsabilidades públicas que a aproximam do Estado, como se este, deste modo, aliado a ela, pudesse enfrentar com mais isenção as demandas sistêmicas da economia capitalista mundial. Assim, por exemplo, Alain Touraine, encontra na reconstrução da categoria de sujeito, no que defende como a “política do sujeito”, o que diz ser “a única resposta para a dissociação da economia e da cultura”6. O sujeito é, para o autor, ao mesmo tempo, um “movimento social” onde se pode resistir aos processos desintegrativos da experiência, da subjetividade, aos conflitos raciais, étnicos e, sobretudo, aos mecanismos dessocializadores oriundos do mercado, do mundo tecnológico e informacional. Viver juntos deve ser mais do que uma coexistência, deve promover espaços éticos comuns onde haja o compartilhamento da experiência social.

6 TOURAINE, Alain. Poderemos Viver Juntos? Iguais e Diferentes. Petrópolis, Vozes, 1999, p. 24.

Anthony Giddens, também, quando firma a idéia do que chamou de “terceira via” 7 tem, como premissa, duas forças fundamentais: a presença atuante do Estado e uma efetiva cultura cívica, que reconstrói os espaços públicos, os quais devem atuar em sintonia com as políticas públicas estatais. Giddens, deste modo, pressupõe a presença pública de cidadãos ativos, partícipes de interesses coletivos, profundamente envolvidos com suas causas. Mais Estado e mais sociedade civil. Esta é a alternativa para o enfrentamento do impacto da globalização, entendida como um conjunto de forças oriundas da expansão do mercado, da tecnologia e da informação. Nas democracias deliberativas, segundo Habermas, a esfera pública política é fundamental. Deve fundar-se sobre uma cultura política e sobre modelos de socialização que a legitime. A esfera pública está no âmago do processo democrático, como premissa e procedimento capazes de disciplinarem normativamente tanto o Estado quanto o mercado. As ramificações da opinião pública no âmbito legislativo do Estado e dos diferentes grupos e movimentos informais da sociedade formam o que chama de “sociedade descentrada”.8 É importante observar como tanto Giddens quanto Habermas conferem ao Estado um lugar central na normatização político-jurídica de interesses advindos do espaço público. Ambos pressupõem uma sociedade civil politicamente ativa, mas é ainda no Estado que os movimentos e compromissos gestados no ambiente público não-estatal adquirem reconhecimento, legitimidade e legalidade. A defesa do Estado em ambos os autores tem afinidade com a postura normativa de John Rawls. Para este, o Estado defende o que ele chama de “razão pública”9, a qual guia a autoridade do Estado enquanto instância comprometida com a justiça e a constitucionalidade da vida democrática da sociedade. A razão pública, para J. Rawls, concerne aos direitos, liberdades e oportunidades dos cidadãos. Ela contém princípios básicos de justiça e procedimentos de argumentação racional internalizados por todos os cidadãos, onde são julgados princípios, valores e interesses. A defesa do Estado é importante para assegurar a vida política da sociedade, seus direitos e liberdades. O Estado ainda é, para estes autores, o lugar da auto-governabilidade da sociedade. E a noção de público está intrinsecamente presente tanto no espaço estatal quanto no da sociedade civil. A noção de “controle público” advém deste ambiente de premissas reflexivas. Está profundamente envolvida com os critérios e procedimentos da democracia formal. Remete ao campo das políticas públicas estatais, mas, sobretudo, a todos os sujeitos enquanto cidadãos reunidos como comunidade política argumentativa. Respalda-se numa teoria social da democracia publicamente exercida nos fóruns estatais e não-estatais. Pensar a ação pública, de comunidades políticas de cidadãos, no controle executivo de instituições sociais pressupõe uma sintonia entre Estado e sociedade civil ainda, do ponto de vista contemporâneo, no caso brasileiro, muito efêmera. A noção de controle público presente nas políticas estatais do país, por mais suporte que encontre no âmbito de teorias sociais democráticas, tem sua normatividade ancorada sobre frágeis estruturas. A participação de cidadãos, do ponto de vista histórico-sociológico, restringe-se a faixas deliberativas irrisórias. Estado e mercado têm feito concessões muito tímidas ao público.

7 GIDDENS, Anthony. A Terceira Via – Reflexos sobre o Impasse Político Atual e o Futuro da Social-Democracia. SP, Record, 1999. 8 HABERMAS, Jürgen. Direito e Democracia – Entre Facticidade e Validade. Vol. II, Biblioteca Tempo Universitário 102, RJ, Tempo Brasileiro, 1997. 9 RAWLS, John. O Liberalismo Político. 2a. ed., SP, Ática, 2000.

No caso brasileiro, observa-se que as atuais políticas públicas nos campos da educação, da saúde, e, em particular, das comunicações, além de inserirem a noção de controle público em âmbitos setoriais de suas estruturas executivas, ainda o fazem de modo a inibir sobremaneira o efetivo controle do público sobre elas. O Brasil é um caso peculiar onde, quase sempre, instrumentos normativos são criados sem que tenham resultado de movimentos e apelos por grupos e setores organizados da sociedade. Quando, na conjuntura atual, a representação política no Brasil cria, em seus estatutos jurídicos, noções como a de controle público, não encontra uma cultura cívica e política que corresponda à expectativa desta nova normatividade.Resta então a dúvida acerca da natureza e finalidade destes instrumentos de participação cidadã. Até que ponto são resultantes de um patriarcalismo historicamente marcante das políticas estatais brasileiras, até que ponto são manifestações efêmeras oriundas da intervenção de setores organizados da sociedade civil brasileira?

versãolivro ciber (jul. 00)

WEBtv, teleTV

e a Convergência Anunciada.

Sérgio Capparelli, Murilo César Ramos e Suzy dos Santos

Resumo: Este trabalho pretende mapear as mudanças estruturais que estão ocorrendo na televisão, a partir da sua relação triangular com as telecomunicações e com a Internet, no sentido de uma convergência nestas mídias. Analisam-se – em termos globais e, quando possível, locais - as movimentações das indústrias das comunicações, a reestruturação dos espaços econômicos (globalização e concentração) e a adaptação dos modelos reguladores à realidade de mercado.

Às vezes o novo é um novo rosto para velhas faces; às vezes o antigo continua antigo com novo uso; às

vezes o novo foi apenas novo um dia; ou se trata de uma antiga tecnologia e de um homem novo; ou, finalmente,

é toda uma tecitura refletindo os novos tempos. Isso pode ser dito com referência à expressão novas tecnologias.

A verdade é que tanto o automóvel como o televisor, serviram de motor ao desenvolvimento do modelo fordista

de produção e ao desenvolvimento capitalista, no período posterior à II Guerra Mundial. E a chamada revolução

eletrônica serve agora de motor à reorganização deste modelo para sair das sucessivas crises que esse mesmo

capitalismo vem enfrentando desde a década de 70. O atual momento é de transição para um modelo pós-fordista

que reduz as barreiras espaciais e geográficas. Para que este modelo seja implantado, são necessárias alterações

profundas nas economias e nos modelos político-institucionais.

A transição por que passam as economias, os Estados e as instituições de dimensão global, também

ocorre nas comunicações. Conforme Manuel Castells:

“For all the science fiction ideology and commercial hype surrounding the emergence of the so called Information Superhighway, we can hardly underestimate its significance. The potential integration of text, images, and sounds in the same system, interacting from multiple points, in chosen time (real or delayed) along a global network, in conditions of open and affordable access, does fundamentally change the character of communication” (Castells, 1996, p. 328).

Essa convergência atual de tecnologias de distribuição de voz, dados, imagens e sons através da digitalização

da informação passam por diversas instâncias, seja a convergência de equipamentos de comunicação,

telecomunicações e informática; a convergência dos modelos de consumo de informação, entre comunicação de

massa e comunicação interativa; a convergência dos produtos das indústrias culturais em um único produto

multimídia; e a convergência da economia das comunicações que agrupa dois setores distintos –

telecomunicações e comunicação eletrônica de massa – mediados pela informática.

Propomo-nos, neste trabalho, a mapear o contexto em que algumas destas modalidades dessas

convergências que vem acontecendo, especialmente no Brasil. Em seguida, analisaremos as mudanças estruturais

- em termos globais e, quando possível, locais – que ocorrem na relação triangular da televisão com as

telecomunicações e com a Internet.

2

Essa análise terá como pano de fundo uma nova ordem mundial em que, a exemplo (e por incentivo) dos

Estados Unidos, os países da América Latina optam por uma quebra dos monopólios estatais de setores

importantes da economia. Nas comunicações, por exemplo, Argentina, Chile, México, Peru e Venezuela já têm

sistemas de telecomunicações completamente privatizados, sendo que o Brasil começou a completar, em 1999, o

seu processo de privatização com a licitação das empresas-espelho destinadas a concorrer com as empresas

sucessoras do Sistema Telebrás e finalizará o processo com a abertura total do mercado em 2002. Essas

experiências mostram, por outro lado, que a convergência das comunicações não pode ser analisada apenas em

função das inovações tecnológicas: as mudanças que a trouxeram à tona estão alinhadas ao modelo neoliberal, ou

pós-fordista segundo Harvey (1994), de desenvolvimento do capitalismo na busca de alternativas para a sua

manutenção. “Nesse contexto, a televisão, que tinha sido um dos motores do desenvolvimento fordista (Garnham,

1991) volta a assumir um papel importante, agora formando um conjunto dinâmico na economia, junto com as

telecomunicações e a informática” (Capparelli, Ramos; Santos, 1999, p. 10).

Telecomunicações e TV

Com as incessantes evoluções tecnológicas, a televisão gerou outra, com grande ímpeto comercial a

partir do final dos anos 70: a televisão por assinatura. E a televisão por assinatura se parece com essas bonecas

russas, trazendo dentro de si a possibilidade de desenvolver características híbridas ao contato com outras áreas

de produção, dela originando-se sempre novos serviços e novos produtos. Talvez ela deixe de ser nomeada como

televisão e passe a chamar-se cibertelevisão (Noam, 1995) porque estaríamos entrando na época da pós-televisão

(Piscitelli, 1998) ao oferecer serviços até então separados – como as telecomunicações, comunicação massiva e

transporte de dados – bem como outros produtos, a partir da dinâmica das mega-fusões. Ou então nem se chame

mais televisão, com a grafia completa, e seja um dispositivo novo – com um ‘nome-sigla’ como PCTV ou

MacTV, bem ao estilo dos nomes dos novos serviços que têm surgido nos últimos tempos como ATV e HDTV1 -

que esteja inserido em uma “cultura da virtualidade real” (Castells, 1996).

Considerado o último grande mercado do Ocidente ainda inexplorado, o Brasil tem, em qualquer das

modalidades de TV por Assinatura, uma significativa vantagem comparativa. O atraso ocorrido em relação a

outros países permite que as três modalidades - TV a Cabo; DTH (Direct to Home - transmissão direta por satélite

via sinais digitais); e MMDS (Multichannel Multipoint Distribution Service - transmissão por microondas)

estejam amadurecidas para serem aplicadas, em larga escala, em estágio avançado de seu desenvolvimento

tecnológico. Em outras palavras, a TV por assinatura chega ao Brasil no momento quase exato da convergência

entre as mídias de entretenimento, as telecomunicações e a informática, o que traz possibilidades adicionais de

negócios na exploração não só dos serviços de vídeo, como também de outros serviços digitais em ambientes de

banda larga.

Mais ainda, a televisão por assinatura no Brasil foi sendo implantada justamente com a reestruturação do

arcabouço institucional das comunicações brasileiras, tendo em vista o fim do monopólio estatal na telefonia

básica e comunicação de dados, bem como na exploração dos serviços de telecomunicações por satélites visando

uma regulação conjunta (convergente) de todos os serviços e meios de distribuição. Isto está abrindo

1 ATV (Advanced Television) – Sigla que designa a TV broadcast digital; HDTV (High-Definition Television) – TV de alta

definição, padrão de televisão digital que gera imagens mais nítidas e definidas.

3

efetivamente novos campos de atuação no mercado para os operadores de televisão por assinatura, já que os

serviços de vídeo que oferecem, em um cenário digital, convergem com outros serviços, particularmente com

aqueles que ora surgem em função do crescimento, no país, do número de usuários da rede mundial de

comunicações, conhecida como Internet. Em outras palavras, as mudanças das políticas normativas em curso

constituem importantes atrativos para uma indústria até bem pouco vista apenas como provedora de televisão

mediante assinaturas.

O ano de 1998 foi marcado por dois acontecimentos de extrema relevância para o novo cenário da

convergência das teles e TV. O primeiro deles foi a privatização do sistema Telebrás, que envolveu interessados

não só do meio das telecomunicações, mas também empresas de comunicação, até então trabalhando apenas o

conteúdo; já o segundo consistiu na crise mundial que elevou os juros e atingiu empresas brasileiras de

comunicação.

Nesse novo cenário as redes de televisão constróem um cenário não tradicional:

1. Uso crescente das cadeias de televisão e suas freqüências para oferecer serviços de transmissão de

dados, muito próximos daqueles oferecidos pelos serviços de telecomunicação. A RAI, italiana, e a BBC,

inglesa, transmitem as cotações diárias da bolsa; a Redevisión, da Espanha, aproveita as redes de

televisão para oferecer serviços de telecomunicações;

2. O crescimento dos canais de televisão, que cobram pelo serviço oferecido, baseado no consumo,

como os programas de televisão próximos ao modelo oferecido pelas telecomunicações (pay-per-view).;

3. O desenvolvimento de redes de distribuição televisiva por cabo, que em alguns países como

Bélgica e Holanda alcançam quase 90% das famílias, e a licença para o uso dessas redes no serviço

telefônico, como acontece no Reino Unido e acontecerá no Brasil a partir de 2002.

Na recente privatização do Sistema Telebrás, o grupo Globo, associado à poderosa AT&T, pretendia

adquirir a maior operadora regional à venda: a Telesp. O grupo perdeu, no leilão, para a Telefónica Internacional

(associada ao grupo brasileiro de comunicações Rede Brasil Sul - RBS). Mesmo assim, o grupo adquiriu as

concessionárias de telefonia celular Tele Celular Sul (por R$ 700 milhões) e a Tele Nordeste Celular (por R$ 660

milhões junto com dois parceiros: a Telecom Itália e o banco Bradesco).

Outras empresas de comunicação têm interesses em telecomunicações no Brasil. A CRT, do Rio Grande

do Sul, teve seu capital comprado por um consórcio que envolvia a RBS e a Telefónica Internacional. A RBS

participou também da telefonia celular na Banda B com os consórcios BCP e BSE. Ao mesmo tempo, os grupos

jornalísticos Folha da Manhã e O Estado de S. Paulo participaram de outros consórcios, todos eles mesclando

operadoras internacionais, bancos nacionais e estrangeiros, além de empresas de equipamento2.

Se, por um lado, as empresas de comunicação estão se movimentando em direção às telecomunicações,

o contrário também ocorre. Na privatização da telefonia argentina, a antiga empresa estatal Entel foi dividida em

duas partes partindo o país e a capital ao meio geograficamente. Esta foi a porta de entrada para as global traders

no mercado convergente argentino. A associação CEI-Citicorp Holdings/Telefónica Internacional S.A. (TISA)

2 Os fabricantes de equipamentos já estão presentes em duas operadoras independentes da banda A que abriram recentemente seu capital: Ceterp de Ribeirão Preto-SP, Motorola; e Sercomtel de Londrina-PR, Ericsson.

4

veio fazer frente ao grupo local Clarín na divisão deste mercado convergente. Os dois grupos têm negócios em

diversos setores das comunicações. São as ‘teles’ caminhando para as ‘TVs’.

No Brasil, esta movimentação também começa a ocorrer principalmente com a Telefónica Internacional,

que, além da Argentina, também atua na América Latina no Chile, Peru, El Salvador, Porto Rico e Venezuela. A

Telefónica, que no Brasil adotou a marca Telefonica sem acento gráfico nenhum, já está associada ao grupo RBS3

em telecomunicações e no provimento de Internet. O grupo também tem investido em redes digitais de banda

larga nas operadoras de telecomunicações que detém no país. Acredita-se que, assim que estiverem restritas as

barreiras legais para a propriedade cruzada, o grupo é um forte candidato a entrar no setor de TV por assinatura

como ocorreu na Argentina. Mais ainda: uma vez superada a barreira constitucional que impede a entrada do

capital estrangeiro nas empresas de jornalísticas e de radiodifusão – há emenda constitucional tramitando no

Congresso nesse sentido -, o grupo espanhol deverá ser forte candidato a assumir o controle de uma rede de TV

aberta no Brasil. Este cenário sinaliza uma convergência efetiva dos setores de telecomunicações e comunicação

de massa no Brasil.

Internet na TV e TV na Internet

A evolução das novas tecnologias de distribuição da programação televisiva enriqueceu a quantidade e a

qualidade de oferta de serviços. São concretamente essas mudanças que levam Garnham (1995) e Richeri (1994)

a considerarem esse novo sistema como um dos principais motores da convergência das comunicações A nova

estrutura de redes, tanto por satélite como por cabos de fibra ótica, está capacitada para oferecer serviços que

extrapolam a transmissão de imagens e áudio.

Estamos trilhando, neste momento, um caminho onde ocorre não apenas a convergência tecnológica de

setores distintos, mas, também, convergências econômicas e políticas. Enquanto Henry Ford foi o símbolo de um

modelo de capitalismo industrial - no qual a produção e o consumo massivos foram regulados através do ‘Estado

de Bem Estar Social’- , Bill Gates é o símbolo de uma nova forma de capitalismo convergente caracterizado pela

3 A relação RBS/Telefonica está marcada pelo episódio de conflito, ocorrido na privatização do Sistema Telebrás. Este

episódio serve para exemplificar como os oligopólios internacionais, que se fortalecem com o pós-fordismo, podem desestruturar as estratégias dos oligopólios nacionais no setor. Poderia se dizer que a RBS, ao se associar à Telefónica, estava alavancando não só a sua participação no setor de telecomunicações como também a sua inserção no mercado globalizado das comunicações. Esta conjectura, porém, adquire outros contornos se compararmos as intenções das empresas brasileiras no setor de telecomunicações e os resultados de privatização do Sistema Telebrás. No mercado nacional existia uma espécie de acordo informal entre a Rede Globo e a sua afiliada RBS que delimitava geograficamente a atuação dos grupos no setor de telecomunicações: a RBS se concentraria na região sul e a Globo no centro do país. Desta forma, na divisão do Sistema Telebrás em três empresas de telefonia fixa, uma de longa distância e oito de telefonia celular, interessava à RBS, a aquisição da Tele Centro Sul; e à Globo, a Telesp, a Telesp Celular ou a Tele Sudeste Celular (Rio de Janeiro e Espírito Santo). A intenção estratégica das duas empresas foi desarticulada a partir da aquisição, pela holding Tele Brasil Sul, da Telesp, por R$ 5,78 bilhões contra os R$ 3,965 bilhões ofertados pelo consórcio formado pela Globopar, o Banco Bradesco e a Telecom Itália. O lance pela Telesp foi definido sem o conhecimento da RBS. A reação do presidente do grupo foi instantânea: “Eu me retirei, foi um choque”, disse Nelson Sirotsky ao jornal Folha de São Paulo um dia depois do leilão (Souza, 31 jul. 1998, p. 1-6). Com a aquisição da Telesp, legalmente, a empresa ficou impossibilitada de concorrer ao leilão da Tele Centro-Sul, vencido pela Solpart Participações – banco Opportunity, Telecom Itália e fundos de pensão. Do outro lado, o consórcio que incluía a Rede Globo perdeu também a Telesp Celular para a Portugal Telecom (parceira da Telefónica) e acabou ganhando a Tele Celular Sul. Desta forma, em vez de solidificar a participação da RBS no mercado de comunicações da região sul, a parceria com a Telefónica funcionou inversamente: serviu de base para a entrada da operadora global no país e restringiu a expansão da RBS. Esse episódio, além de estremecer as relações entre as duas parceiras, abalou profundamente o planejamento da RBS.

5

re-regulamentação que vem ocorrendo nos últimos anos. Assim, argumenta-se que estamos em transição de um

fordismo a um “gatecismo”.

Para o canadense Gaetan Tremblay (1995), a relação entre estes modelos não é, necessariamente,

interpretada como um rompimento radical entre uma sociedade industrial e uma nova sociedade da informação,

mas, ao contrário, deve ser compreendida dentro da estrutura de uma dinâmica específica do capitalismo. “These

changes nevertheless translate into a shift from one mode of organization to another, from one production and

consumption norm to other production and consumption norms (...) the search for new modes of social regulation

is part of this process of change”” (p.25).

Além da programação tradicional de vídeo e áudio, home banking, home shopping, telefonia, tele-

conferências e Internet são serviços que agora podem ser oferecidos tanto pelas operadoras de televisão por

assinatura quanto pelas de telecomunicações. A atual legislação brasileira de cabodifusão limita as operadoras de

televisão a cabo a oferecerem apenas vídeo e áudio, mas permite a locação do excedente da capacidade das suas

redes para operadoras de telecomunicações. No caso das operadoras de telecomunicações, elas estão proibidas de

operar qualquer modalidade de televisão, broadcasting ou por assinatura, e sua atuação está limitada às áreas

geográficas definidas no processo de privatização até 2002.

Mas estas restrições estão muito perto de serem eliminadas. A recente proposta de “Regulamento para

Utilização de Redes de Distribuição de Serviço de Comunicação Eletrônica de Massa por Assinatura para o

Provimento de Serviços de Valor Adicionado" aprovada pela Resolução 190, de 29 de novembro de 1999, pela

Anatel, já liberou os operadores de televisão por assinatura ao provimento de Internet, um serviço de

telecomunicações de valor adicionado (SVA). Como a TV a cabo está regulada por ato normativo (Lei 8.977)

distinto dos outros serviços por assinatura, como MMDS e DTH, a Anatel está preparando novas regras para o

setor, unificado pela denominação de Serviço de Comunicação Eletrônica de Massa por Assinatura (SCEMa).

Ainda para o ano de 2.000 também estão previstas: a) a votação de projeto de lei para a abertura do

capital das empresas de televisão broadcasting para estrangeiros, observando o limite de 30%; b) a

regulamentação para a digitalização dos serviços de MMDS; e, c) a finalização do processo de licitação para as

espelhinhos, que abrem o mercado de telefonia fixa para novos operadores (o edital proíbe a participação das

concessionárias já existentes e as espelhos). A futura regulamentação convergente compreende também as novas

tecnologias que foram recentemente testadas no país como o LMDS (Local Multipoint Distribution System),

também chamado de LMCS (Local Multipoint Communications System) ou BWA (Broadband Wireless Access);

e a televisão digital, cujos testes foram realizados por 17 empresas de comunicação brasileiras, e o relatório final

foi tornado público, em julho de 2.000, para comentários (Anatel, 2000).

A partir da digitalização, grandes transformações estão ocorrendo tanto na TV quanto na Internet. Duas

possibilidades de mudanças são possíveis: pode-se levar a Internet para a TV, tornando-a navegável através do

controle remoto; ou o contrário, fazer com que os canais de televisão sejam possíveis de serem assistidos via

Internet, na tela do computador.

Internet na TV

Além dos acordos entre empresas para uma convergência econômica, há também a convergência

tecnológica de equipamentos. Em termos de equipamento – hardware - as principais estrelas tecnológicas

6

surgidas no final da década de 90, os cable modem e os set-top boxes, estão sendo implantadas pelas principais

global traders.

O cable modem, como o próprio nome indica, é um dispositivo que converte informações enviadas pelo

computador em sinais elétricos que depois são recebidos por um dispositivo equivalente que converte os sinais de

novo em dados. Inicialmente um modem, abreviação de modulador-demodulador, usa apenas a linha telefônica

para transferir as informações numa velocidade média, de 56kbps de acordo com a capacidade das principais

marcas oferecidas pelo mercado. O cable modem transmite estas mesmas informações por cabos de fibra ótica,

sendo seu principal atrativo a velocidade com que os dados chegam a casa do usuário: 30Mbps, em condições

perfeitas (sem ruídos e com uma estrutura dedicada exclusivamente para o seu uso), e 2 Mbps. Enquanto os

modems telefônicos são transmitidos na medida de mil bits por segundo – Kbps, os cable modems vêm com o

incremento dos milhões de bits por segundo – Mbps.

Já o set-top box é um dispositivo de interface entre a rede (de cabos) e o televisor do assinante. Uma

espécie de conversor que permite o acesso à Internet, transmissão de dados, video on demand entre outros. Um

usuário pode, através da sua televisão, ao mesmo tempo enviar e-mails e assistir ao Jornal Nacional, por

exemplo, conectando-se a qualquer provedor de acesso ou ao provedor da própria empresa de TV a cabo.

Este equipamento permitiria, por exemplo, que um telespectador assistindo a uma cena da novela Laços

de Família, na qual a personagem Íris está galopando seu cavalo e ouvindo música pelo headphone, possa, ao

mesmo tempo, acessar o portal Globo.com. No portal, este usuário poderia clicar no link para Íris, dentro da home

page da novela, e deparar com cinco opções: 1) a personagem (histórico, e-clip interativo onde o usuário pode

editar online as cenas já mostradas com participação da atriz); 2) a atriz Deborah Secco (biografia, dados sobre a

personagem, video-on-demand dos filmes estrelados, entrevistas); 3) a fazenda (localização no interior do Rio

Grande do Sul, a cultura local, propriedades disponíveis para compra na região); 4) o cavalo Vilão (a raça manga

larga; chat com o treinador; disponibilidade para inseminação artificial); e, 5) Arquivos em MP3 para download

da trilha sonora relativa à personagem. Tudo isso em tempo real, com qualidade de TV e velocidade de 30Mbps.

No momento, os provedores brasileiros de conteúdo para a internet ainda não oferecem este nível de

integração com a programação televisiva. Tecnicamente, o maior impedimento para que isto ocorra se localiza

nas redes. Enquanto os equipamentos de ponta permitem, em tese, tamanha velocidade e capacidade, o caminho

percorrido é ainda uma mistura de redes ópticas e coaxiais, de par de fios trançado, além de redes sem fio de

baixa velocidade. É por isso que, mesmo assinando uma linha ADSL de 256kbps, a velocidade média de

download atingida é de 100kbps. Há um hiato entre as tecnologias possíveis (e já disponíveis no mercado

brasileiro, como podemos ver no quadro a seguir) e a viabilidade da universalização da banda larga, que pode

levar ainda muito tempo, dependendo da modernização das redes.

Comparação entre as diferentes tecnologias de acesso à Internet pela TV por assinatura4

Tecnologia Velocidade de Upstream

Velocidade de

Downstream

Custo médio do serviço para o

assinante

Operadoras no Brasil

Pontos fortes

Pontos fracos

Cable modem

56 kbps a 129 kbps

256 kbps a 2 Mbps5

De R$ 60,00 a R$ 80,00

Net Sul (Cable Modem

Conexão permanente

Custo do modem

4 Obtido em Mermelstein, 2000.

7

Net), TV Filme (LinkExpress), Globo Cabo (Vírtua)

liberação da linha (no bidirecional)

MMDS Até 128 kbps (retorno por telefone)

Até 2 Mbps R$ 80,00 TVA (Ajato) e TV Filme (LinkExpress)

Cobertura do serviço (uma antena central cobre uma cidade de pequeno e médio portes)

Por enquantoé só unidirecional

Satélite (DirecPC)

Até 128 kbps (retorno por telefone)

Até 400 kbps

Nos Estados Unidos o serviço custa, em média, US$ 20,00 para 200 kbps, US$ 40,00 para 400 kbps e US$ 130 para empresas.

Ainda não disponível no Brasil. Nos EUA é prestado pela Hughes

Flexibilidade de instalação, área de cobertura

Custo do serviço, já que tecnologia é importada

BWA (LMCS) (LMDS)

Até 10 Mbps Até 155 Mbps -

Ainda está sendoregulamentado pela Anatel

Indicado para regiões com alta densidade de assinantes, alta capacidade de dados

Tem menor alcance que MMDS e é sensível a interferências

Um dos exemplos mais conhecidos de convergência entre a Internet e a televisão é o acordo entre a

Microsoft e a Tele-Communications Inc (TCI), a maior empresa de TV a cabo dos Estados Unidos. Este acordo

garante a colocação de Windows CE (Consumer Eletronic), o sistema operacional mais usado no mundo, porém

alterado, em 5 milhões de set-top boxes. A intenção de Gates com isso é que, assim como futebol e televisão

estão profundamente ligados para milhões de pessoas no mundo, o Windows fique inseparavelmente relacionado

à TV. Cerca de 20 milhões de lares americanos têm computadores e modems e mais ou menos 68 milhões têm TV

a cabo. Para manter um crescimento tão forte quanto o atual, a Microsoft precisa ingressar no mercado chamado

televiosionspace, ou espaço televisivo.

O ano de 2000 iniciou com a criação do maior conglomerado mundial de comunicações: o AOL Time

Warner. No dia 10 de janeiro foi anunciada a compra da Time Warner6 pelo maior provedor de Internet do

mundo, AOL7, em uma negociação que envolveu, segundo o boletim Assesso Com, US$ 166 bilhões. Ainda

segundo o boletim, o conglomerado “nasce com um valor de mercado de US$ 350 bilhões e deve gerar uma

receita de US$ 40 bilhões anuais... Juntas, as empresas reúnem 36 revistas, entre elas a Time, os canais de TV a

cabo CNN, HBO e Warner Group e as marcas Netscape, People e Looney Tunes” (Assesso Com, 12 jan. 2000).

Esta fusão ainda depende da aprovação das agências reguladoras FCC (Federal Communications Comission), das

telecomunicações; FTC (Federal Trade Comission), do comércio; e pela divisão antitruste do Departamento de

Justiça dos Estados Unidos, mas, levando em conta a sua natureza e o volume dos valores financeiros envolvidos,

ela já configura o negócio mais expressivo já realizado em relação à convergência da TV com a Internet.

5 Modems atuais. A rede tem capacidade para até 30 Mbps. 6 “Time Warner, com 16 anos de existência, tem 20 milhões de usuários e um valor de mercado de US$ 121 bilhões. De

imediato, a associação reúne 120 milhões de leitores de revistas, 35 milhões de assinantes da HBO e 13 milhões de residências assinantes da AOL” (Assessocom, 12 jan. 2000).

7 “Fundado em 1985, o provedor tem 22 milhões de usuários e um valor de mercado de US$ 169 bilhões” (Assessocom, 12 jan. 2000).

8

Outro exemplo de grande porte ligado à convergência entre a Internet e a TV é um conjunto de acordos e

negócios de gigantescas empresas norte-americanas e japonesas. Voltaremos a falar sobre as ações da Microsoft.

Desde 1991 a empresa vem pesquisando para criar a TV digital. O primeiro resultado destes esforços foi o

Windows CE, consumer electronics ou eletrônica de consumo. Em 1993 Bill Gates já estava conversando com a

TCI, Time Warner, AT&T e outros grandes das telecomunicações sobre a formação de uma joint venture para o

lançamento da televisão interativa. O máximo ao que se chegou foi a testes que nunca ultrapassaram a fase

laboratorial. A transição da televisão convencional para a interativa não aconteceria da noite para o dia. Os testes

desenvolvidos pela Time Warner deixavam isso bem claro. Na tentativa de oferecer para 4 mil assinantes de TV a

cabo alguns jogos online, filmes on demand e pedidos de pizza por meio do controle remoto, a empresa deparava

com grandes dificuldades técnicas. Os set-top boxes apresentavam um custo de US$ 8 mil para serem produzidos,

e só a criação do aplicativo para a solicitação de pizza precisou de meses de trabalho e centenas de milhares de

dólares de investimento.

Tratando-se de negócios entre grandes empresas e convergência, não podemos deixar de falar também

na WebTV. Certa noite, quando estava navegando na Internet, Steve Pearlman, um ex-executivo da Apple,

decidiu verificar se seria possível transferir uma página do seu monitor de vídeo para a TV. A idéia deu certo e

Pearlman criou a WebTV, uma empresa que chamou a atenção de Bill Gates em pouco tempo. Em semanas, a

Microsoft comprou a WebTV em um negócio de US$ 425 milhões. De acordo com pesquisas da própria empresa,

as pessoas passam 2,5 vezes mais tempo online navegando pela TV do que pelo computador. Acredita-se que isto

aconteça por causa da familiaridade existente com o aparelho televisor. O sistema WebTV somente inclui um

aparelho set-top de US$ 199 que liga-se à TV. Logo depois da compra da WebTV pela Microsoft, a Sony e a

General Instrument, duas das maiores empresas produtoras de aparelhos eletrônicos do mundo, entraram em

conversação para incluírem-se no negócio.

Os problemas da Microsoft frente à justiça americana constituem outro exemplo da importância da

Internet. O Departamento de Justiça dos Estados Unidos entrou com um processo contra a Microsoft, em maio de

1999, por prática de monopólio. A acusação principal devia-se à venda casada do sistema operacional mais usado

no mundo, o Windows, com o browser, sistema de navegação da Internet, Explorer. Segundo o Departamento de

Justiça norte-americano, a Microsoft conquistou o mercado exercendo ilegalmente o poder do monopólio,

dificultando a entrada no mercado de uma forte concorrente, a Netscape. A primeira sentença, proferida em

setembro de 1999, proíbe a empresa de vender o seu novo sistema operacional, Windows 98, apenas com o seu

browser. Caso aconteça esta venda casada, será obrigatória também a inclusão do browser Netscape no conjunto.

Na mesma ocasião, a própria Netscape iniciou uma campanha mundial legalizando a cópia gratuita do seu

navegador através da rede, ação inédita até então. Esta disputa acirrada no mercado de informática,

principalmente tratando-se de Internet, e esta forte briga contra o monopólio na rede, deixam claro o quanto este

mercado está crescendo e despertando interesses empresariais e governamentais no mundo todo.

Comercialmente, a Internet surgiu, no Brasil, em 1995. Ela situa-se, até agora, na “era da pré-

convergência”, de que fala Garnham (1996), caracterizada pelo fato de as redes físicas e a sua regulamentação

estarem ainda separadas entre telecomunicações e cabodifusão.

Em termos jurídicos, o provimento de acesso à Internet no país é considerado um serviço de valor

adicionado (SVA) de telecomunicações que não necessita de outorga concessão para ser oferecido e utiliza a

9

estrutura das operadoras de telecomunicações para transporte. Inicialmente, as empresas de comunicação

entraram no setor, criando ou adquirindo provedores de acesso ou de conteúdo.

A Anatel começou a eliminar estas restrições com o Regulamento de Testes para Serviço Adicionado,

publicado em dezembro de 1998, que autorizou as operadoras de televisão por assinatura a realizarem

experiências com cable modems até junho de 1999. Para garantir o caráter público das redes, previsto na Lei

8.977, e coibir a possibilidade de monopólio, a Anatel exigiu que estes testes fossem feitos em conjunto com três

provedores de Internet no mínimo. As principais MSOs8 brasileiras já vinham fazendo testes com cable modems

antes da liberação da Anatel. A RBS vem estudando duas tecnologias, a da Nortel, na Net Sul, e a da Terayon, na

Globo Cabo.

O interesse na regulamentação dos serviços convergentes, ou multimídia, pode ser observado pelo

número de comentários enviados à Anatel durante o processo de regulamentação do SVA, que esteve em consulta

pública entre setembro e outubro de 1999. Das 21 propostas de regulamento elaboradas pela agência, no ano de

1999, esta foi a que obteve recorde de comentários com 86 contribuições. O maior número de contribuições

registrado neste ano havia ocorrido, em abril de 1999, com 41 contribuições à Proposta de ‘Regulamento sobre a

contratação de serviços e aquisição de equipamentos ou materiais pelas Prestadoras de Serviços de

Telecomunicações’ (Consulta Pública n. 118/99, Anatel, 2000). Outra característica importante da Consulta

Pública para o SVA (n. 176) é o alto índice de participação dos usuários de Internet. Das 86 contribuições

recebidas, 36 pertenciam a empresas dos setores de informática e/ou comunicações, advogados e entidades da

sociedade civil ou dos setores envolvidos e as 50 contribuições restantes pertenciam a pessoas físicas. Durante o

ano de 1999, foi observado que, além desta, apenas uma consulta pública obteve contribuição de também apenas

uma pessoa física (n. 150, Proposta de Regulamento sobre Canalização e Condições de Uso de Radiofreqüências

da Faixa de 10,5 GHz).

O evidente interesse dos usuários em utilizar os serviços de Internet em banda larga, aliado à

possibilidade de utilizar a capacidade extra da estrutura de distribuição, à crença na massificação da Internet e no

ambiente competitivo que está sendo formado no país, impulsionam os investimentos das empresas de

comunicação na viabilização do oferecimento de Internet pelo cabo.

Comercialmente, o serviço já é oferecido, desde setembro de 1998, pela Net Londrina, sob o nome de

Zapp Channel. Este sistema utiliza o cable modem para a transmissão dos dados sem a bidirecionalidade no cabo,

ou seja, o retorno era por linha telefônica. Desta forma, a operadora podia oferecer um serviço mais rápido de

acesso mas não esbarrava nas restrições legais existentes para as operadoras de cabo. Um serviço equivalente,

chamado de Ajato foi lançado, em julho de 1999, pela TVA, do grupo Abril.

Após a aprovação da Resolução n. 190, no final de 1999, os serviços estão se multiplicando. Em julho

de 1996, o grupo RBS, terceiro maior grupo nacional de comunicações, transmissora da Rede Globo no Rio

Grande do Sul e Santa Catarina, comprou um provedor de Internet, a Nutec. Este provedor transformou-se, nas

mãos da RBS, na Nutecnet, o segundo maior provedor de acesso à Internet do país, com 190 mil assinantes e

franquias em 83 cidades de todas as regiões do país em 1998. A Nutecnet, posteriormente transformada em ZAZ, 8 O conceito de MSO usado neste trabalho refere-se às várias modalidades de TV por assinatura operadas por um único grupo.

Este conceito amplia o espectro da definição usual do termo para designar as empresas que possuem ou operam mais de um sistema de TV a cabo ou MMDS.

10

também agrega um provedor de conteúdo (ou portal, como estão sendo chamados estes provedores mais

recentemente), criado em dezembro de 1997. Atualmente o ZAZ está incluído no portal Terra que agrupa todos

os provedores da Telefónica de España no mundo. A RBS, originalmente interessada em produzir notícias e

diversão, enfim, conteúdo, demonstrou mais uma vez interesse na estrutura tecnológica ao associar-se à maior

empresa de software mundial, a norte-americana Microsoft, no final de 1997, oferecendo no ZAZ o serviço de

informação MSNBC, joint venture entre a Microsoft e a rede americana de televisão NBC. Ainda no setor de

informática, a RBS é proprietária da ADP Sistemas, que opera no setor de software.

Em junho de 1999 a Telefônica Interativa, pertencente à holding Telefónica Internacional, adquiriu 51%

do ZAZ. Esta movimentação insere a Telefónica, uma empresa de telecomunicações, no mercado de Internet

brasileiro e também serve para aumentar os investimentos neste portal, que faturou, em 1998, US$ 23 milhões,

para competir com o Universo Online – UOL, líder no mercado.

A entrada das chamadas global traders no setor de Internet brasileiro começa a ocorrer com esta

aquisição. O UOL, maior provedor privado de acesso à Internet da América Latina, com 400 mil assinantes,

também anunciou recentemente que está procurando um parceiro internacional. O UOL é o site em língua

portuguesa mais visitado no mundo, com uma média de 100 milhões de páginas acessadas por semana, estando

na mesma marca que a gigante mundial de comunicação CNN e superando sites como a Disney (17,25 milhões).

Além disso, também em junho de 1999, o site de busca Yahoo!, já instalado em 18 países nos últimos

anos e que tinha, nesta data, uma média de 60 milhões de usuários mensais em todo o mundo, montou um

escritório no Brasil e um site em português. Assim como aconteceu nos outros países da América Latina,

especialmente na Argentina, essas global traders, que inicialmente entraram nesses países participando da

privatização das telecomunicações, tomam seu lugar no Brasil, num mercado de comunicações marcado pela

convergência.

Além de provedores próprios, alguns grupos brasileiros já estão oferecendo o serviço de Internet por

cabo. A Net Sul (também de propriedade da RBS até junho de 2.000) esteve, desde 1997, estudando a tecnologia

da empresa americana Nortel e aguarda a autorização da Agência Nacional de Telecomunicações, para iniciar os

testes de telecomunicações em redes de cabo com a interconexão à rede pública (PAY-TV, 24 jun. 1998). Além

da Net Sul, o uso das redes de TV a cabo para Internet e outros serviços de dados esteve sendo testado desde

1998, também nas cidades de Londrina-PR, Vitória-ES e Sorocaba-SP.

Outro grande player nacional que está operando cable modems e set-top boxes é a Rede Globo,

proprietária da GloboCabo – empresa de cabodifusão. Em maio de 1999, 320 residências em Sorocaba-SP

utilizavam experimentalmente o serviço Virtua, o primeiro serviço bidirecional de cable modem no país, que

utiliza os softwares da Microsoft, Windows NT, associados ao MS Comercial Internet System (MCIS), um

pacote de aplicativos para serviços Web. O serviço foi comercialmente implantado no segundo semestre de 1999,

a partir da venda de 20% da Globo Cabo S.A., para a Microsoft. A empresa investiu US$ 126 milhões na

operadora de TV a cabo.

No ano 2.000 o grupo Globo, que já era o maior grupo brasileiro de comunicação, passa a deter também

a maior operadora de TV a cabo e serviços de banda larga da América Latina. Esta transformação teve início em

fevereiro com a aquisição, pela holding Globo Cabo S. A., da Vicom S. A., empresa que opera serviços limitados

11

de telecomunicações (comunicações de dados corporativos) e que, anteriormente pertencia a um consórcio entre

Globopar, Victori Internacional e banco Bradesco por US$ 120 milhões,. Entre 1998 e 1999, a Globo Cabo S.A,

incorporou também as operadoras de TV a cabo que anteriormente eram suas sócias: Multicanal Participações e

Unicabo.

No dia 20 de junho um novo acordo, envolvendo US$ 734,7 milhões, foi anunciado. A Globo Cabo S.A.

assumiu o controle da Net Sul, empresa que anteriormente pertencia à RBS, 90%, e à própria Globo Cabo, 10%.

A Net Sul, detém na região sul do país: 308,6 mil assinantes de TV por assinatura; 1.125,4 mil domicílios

cabeados; renda líquida de R$152,6 milhões, em 1999; e sua rede de cabos possui a extensão de 9.060km, sendo

57% na faixa de 750MHz. Com a fusão a Globo Cabo passou a possuir 1,4 milhão de assinantes, cobertura de

seis milhões de domicílios, receita líquida anual superior a R$830 milhões e mais de 33 mil quilômetros de rede

de cabos (Globo Cabo S.A., 2000). Em contrapartida, pela passagem do controle das ações da Net Sul, a RBS

passou a deter 16,85% da Globo Cabo S.A. como pode ser observado na figura a seguir.

Empresas de serviços de telecomunicações ligadas à RBS e Globo Cabo

A televisão, portanto, constitui um suporte onde “acontece” um tipo de convergência tecnológica,

econômica e jurídica, materializando as possibilidades da Internet no monitor. Mesmo assim, não se trata mais de

Internet pelo monitor da televisão ou de uma televisão com hipertexto. Trata-se de uma tecnologia nova, marcada

por um caráter híbrido, que não se reduz apenas à soma de duas tecnologias.

Televisão na Internet

No início de 1998, a Microsoft, comprou 11% das ações da Comcast, a quarta empresa de televisão a

cabo dos Estados Unidos, investindo mais de um bilhão de dólares no negócio. Na realidade, já é possível assistir

Virtua

Globo Cabo Holding

ZAZ

Cable Modem Net

RBS

Net Brasil Net Sul

Bradesco

Microsoft

BNDESPar

Outros

Telefonica

Vicom

IFC GloboPar Outros

Globo Cabo S.A.

CRT

6,5% 93,5%

43,01%

4,99%

7,75%

7,69%

19,70%

16,85%

Globo.com

49%

51%TBS Participações2%

31,56%

31,56%

12

à TV pela Internet. Muitos canais oferecem páginas extremamente completas sobre os assuntos que estão

abordando, e, mais do que isso, arquivos com reportagens já apresentadas, entrevistas, ou mesmo a apresentação

ao vivo de alguns programas (é o caso da Rede Globo, da MTV ou da TV Cultura).

Para os usuários da rede, conectados via ligação telefônica, a qualidade da imagem e do som é ainda

precária. Não se tornou algo usual assistir televisão pela Internet, mas verifica-se uma movimentação de

investimentos, testes e pesquisas nesse sentido. No Brasil, as operadoras Telefonica e CBTC Telecom oferecem o

serviço de ADSL (Assimetrical Digital Subscriber Line), onde o fluxo de dados é feito através da rede de cabos

de cobre, não necessitando de rede de fibra ótica, com velocidade de até 8Mbps. Além destes serviços, a Anatel

está preparando um novo regulamento de banda larga wireless, utilizando microondas através da tecnologia

BWA9 que já foi testado, até 1996, pelas seguintes companhias: AG Telecom, Globosat, Sulitel/RBS, TVA e

Global-Tel. Os usuários brasileiros vivem, no momento, uma situação híbrida entre os modems analógicos de

56Kbps e a proximidade do serviço wireless com até 100Mbps.

Evolução da velocidade de dados10

1962 Primeiros modems analógicos transmitem a 300 bps1970 Modems analógicos de 1,2 kbps1978 Telefônicas lançam o DDS (Digital Data Service), conexão dedicada com capacidade de 56 kbps 1982 Modems analógicos de 2,4 kbps 1983 Lançamento do ISDN, com velocidade de até 128 kbps 1984 Linhas T1, com capacidade de 1,5 Mbps; Modems analógicos de 9,6 kbps 1990 Modems analógicos de 14,4 kbps 1992 Modems analógicos de 28,8 kbps 1993 Primeiros testes de ADSL, com até 1 Mbps 1994 Modems analógicos de 33,6 kbps; Primeiros testes de cable modem nos EUA e Canadá 1995 Início da comercialização do cable modem, com velocidades de 1 a 3 Mbps 1996 Modems analógicos de 56 kbps 1998 Início da comercialização do ADSL, com velocidades de download de 7,1 Mbps 2000 Novas tecnologias, como LMCS, poderão atingir mais de 100 Mbps no download

O site da revista Pay TV disponibilizou recentemente um relatório sobre Internet em banda larga onde

afirma-se que, até o final de 2.000, a norte-americana Hughes iniciará no Brasil a comercialização de um serviço,

chamado DirecPC, que, através de satélite, oferece acesso à internet, transferência de arquivos em alta velocidade

e transporte de vídeos e arquivos multimídia. Segundo a revista “nos Estados Unidos, o DirecPC é utilizado

preferencialmente por usuários domésticos para acesso à Internet. A empresa tem uma base de 60 mil clientes,

que podem contratar links de 256 kbps e 400 kbps para download, que custam, em média, US$ 20,00 e US$

40,00 mensais, respectivamente” (Cristoni, 2000).

Isso nos possibilita introduzir uma outra convergência, em pleno desenvolvimento mas ainda com uma

evolução imprecisa: a dos chamados portais. São sites na Internet, propondo informações do dia, meteorologia,

coberturas de acontecimentos ao vivo, guias de turismo multimídias, localizadores - seleção de sites Web com

palavras-chaves. Aqui as posições ficam invertidas. Poderíamos dizer que, ao contrário do exemplo anterior,

9 Esta foi a terminologia adotada pela Anatel. O mesmo serviço também é chamado de LMDS e LMCS. 10 Novas tecnologias, como LMCS, poderão atingir mais de 100 Mbps no download.

Fonte: “Residential Broadband”, ADSL Forum, Dataquest, Intel. Teletime. Obtido em: Mermelstein, 2000.

13

trata-se de um computador que hospeda a televisão. Claro, é uma tecnologia recente, desenvolvida há muito

pouco tempo e que agora se materializa nos empreendimentos da Disney e NBC nos Estados Unidos, associados

respectivamente à Infoseek e Snap. Apenas como exemplo fora dos Estados Unidos, podem ser citados, na

França, as iniciativas do canal TF1, France Télévision e France Telecom. E, no Brasil, existem portais como o

Ajato que oferece conteúdo em banda larga desde o início de 2.000, o Media Cast, da LabOne, que oferece vídeos

exclusivos para a Internet que incluem shows de jazz, boletins jornalísticos, entrevistas e traillers de filmes

brasileiros, ou a MTV com um e-clip que pode ser editado pelo usuário.

Colocar de um lado exemplos franceses e do outro, exemplos norte-americanos, mostra uma imprecisão

sobre essas tecnologias e empreendimentos mundializados. O que se observa é a impropriedade de se falar de

investimentos por país quando os negócios se globalizam. O jornal Libération, por exemplo, analisando o caso

francês, fala na iniciativa de TF1, procurando trazer a Internet para o monitor, mas, ao mesmo tempo, produzindo

programas a serem oferecidos exclusivamente pela Internet. A reportagem discute também a contratação feita

pela France Télévision de um profissional até então responsável pelo setor de multimídia da France Telecom.

Como se vê, também as atividades profissionais se embaralham.

As alianças entre grupos nacionais e internacionais mostram que fora dos Estados Unidos geralmente

acontecem alianças de grupos locais com empresas dos Estados Unidos. No exemplo que vínhamos seguindo,

têm-se a aproximação da AOL/Compuserve da França, filial comum de Canal e de Cegetel, lançando o portal

aol.fr, que já experimenta grande sucesso nos Estados Unidos. Finalmente - e aqui uma espécie de convergência

cruzada - a empresa France Telecom criando o portal Voila, apontando a falta de limites definidos entre as

atividades de telecomunicações, Internet e televisão.

A lógica dos portais é, sobretudo, econômica, numa Internet caracterizada pela gratuidade do conteúdo

oferecido ao usuário. Não estamos nos referindo a bancos de dados e outro tipo de informações estratégicas.

Falamos em sites enquanto entretenimento, noticiário, cobertura ao vivo etc. Mesmo o New York Times que

antes cobrava uma mensalidade pela sua versão eletrônica, voltou a oferecer acesso gratuito aos seus serviços,

cobrando apenas por certos artigos classificados.

No caso dos portais, a estratégia é reunir em um mesmo site o maior número possível de usuários e, a

partir daí, cobrar de empresas pela publicidade veiculada. Não se cria assim uma dispersão muito grande dos

investimentos publicitários que, de outra forma, estariam divididos entre milhões de sites. São justamente esses

“supersites” os chamados portais, face oposta da WebTV, ou melhor, outro tipo de convergência ou de negócio,

cuja evolução ainda não é de todo conhecida mas que já movimenta milhões de dólares. No Brasil, alguns dos

principais portais, Universo Online - UOL, Terra, Globo.com, Ajato e SBT Online - SOL, têm origem em grupos

tradicionais de comunicação – Grupo Folha; RBS, Rede Globo, TVA e SBT, se bem que esses portais ainda são

uma incógnita econômica.

Perspectivas

Garnham (1991) e Richeri (1995) estão certos ao afirmarem que estamos vivendo uma fase de transição

na comunicação eletrônica de massa. Tínhamos (temos) um modelo de televisão, ainda predominante, que é a

televisão massiva; passamos por uma transição, caracterizada pela televisão por assinatura e as novas linguagens

dos mídias; e nos aproximamos de um outro tipo de televisão, que pode ser chamada interativa, cibertelevisão,

14

televisão pós-fordista, ou gatecista (Tremblay, 1995) ou, conforme autores mais radicais, pós-televisão, ou seja,

um misto de televisão e de computador.

As medidas de desregulamentações e as re-regulamentações, com hegemonia de empresas privadas, do

capital financeiro internacional, e com o afastamento do Estado das atividades de operador de telecomunicações,

conforme receituários clássicos neoliberais, demonstram que a metáfora das super-estradas da informação não era

apenas figura de retórica eleitoral norte-americana. Tratam-se, na verdade, de medidas normativas estruturais que

possibilitam, em nível regional, a quebra definitiva da possibilidade de uma participação forte do Estado nas

comunicações como operador. O que, na Argentina, já ocorreu com as privatizações empreendidas e efetivadas

nos últimos dez anos, e o que está para ser concluído no Brasil.

Apesar da globalização da economia, a convergência das teles e das tevês no Brasil é fato singular. A

televisão a cabo é um exemplo ainda mais claro dessas diferenças. Não se trata, por exemplo, de uma repetição

no Brasil do que aconteceu na Argentina, mesmo que o guarda-chuva do neoliberalismo seja parecido. Em outras

palavras, o sistema de televisão a cabo começou muito mais cedo na Argentina porque, diferentemente do caso

brasileiro, os militares argentinos não haviam dotado aquele país de um moderno sistema de telecomunicações,

de modo a permitir a chegada dos sinais de televisão a todos os recantos do país. Mas, por outro lado, a

Argentina, bem como outros países da América do Sul, vive, nos últimos anos, o completo domínio das empresas

estrangeiras no setor de televisão aberta ou por assinatura. Diferentemente, os militares brasileiros - com as

intenções ‘fordistas’ de propiciar a ligação do país, através de um sistema de telecomunicações unificado e

avançado, e de aliar-se a um grupo de televisão que funcionasse como uma espécie de porta-voz do Estado -

acabaram propiciando uma estrutura tecnológica e econômica local de comunicações mais preparada para o

cenário convergente que está sendo delineado nos moldes pós-fordistas ou gatecistas.

As diferenças acontecem também na convergência do aparato jurídico. A Agência Nacional de

Telecomunicações – Anatel - vem se preparando para a convergência dos setores através dos testes das

tecnologias mais recentes e da elaboração de uma regulamentação que unifique todos os serviços de

comunicações. No Brasil, também, o principal grupo que controla a televisão a cabo é o mesmo que detém a

principal rede de televisão no país. E dele provem boa parte da programação nacional neste segmento da

televisão.

Se o cenário da convergência das teles e da TV está a caminho da consolidação, o mesmo não acontece

nas aproximações entre a televisão e a Internet. No primeiro caso – teles e TV - as tecnologias e o volume de

capitais estão permitindo a construção desse cenário dentro do próprio país, com a participação de gigantes

internacionais como a Telefónica ou, no caso da televisão por assinatura, com o aporte de capital e experiência

das indústrias culturais globalizadas, do setor financeiro e de grupos nacionais. No segundo caso, envolvendo a

Internet e a televisão, é diferente. Isso porque a televisão na Internet ou a Internet na televisão ainda estão nos

seus primeiros passos. E as maiores experiências acontecem em outros cenários que não o Brasil. Porém, os

investimentos dos grupos locais ou o interesse de grandes provedores internacionais no mercado brasileiro

mostram que esse será um locus privilegiado para aplicação e reprodução do capital, num mundo globalizado sob

a grande rede.

15

Referências

ACESSOCOM. Jornalismo especializado em comunicação. Publicação on line do Epcom: Instituto de Estudos e Pesquisas em Comunicação. <http://www.acessocom.com.br>

ANATEL. Agência Nacional de Telecomunicações. <http://www.anatel.gov.br>

AUST, Thomas. Convergence and its players: potential winner. Communications Media Center at New York Law School. <http://www.cmenyls.edu/public/papers/CONVERGE.htm>. 09 out. 1996.

CAPPARELLI, Sérgio; RAMOS, Murilo César; SANTOS, Suzy. A nova televisão no Brasil e na Argentina. In: CAPPARELLI et al. Enfim, sós: a nova televisão no Cone Sul. Porto Alegre: LPM, 1999. p. 9-38.

CASTELLS, Manuel. The culture of real virtuality. In: CASTELLS, Manuel. The rise of network Society. v.1. cap. 5. Massachussets: Blackwell, 1996.

CRISTONI, Inaldo. Internet em alta velocidade. Acesso: O desafio de chegar ao usuário. Pay TV. Tutorial disponível no site <http:// www.paytv.com.br/mercado/tutorial/index.htm>

GARNHAM, Nicholas. Capitalism and communication, global culture and the economics of information. Londres: Sage, 1990.

____________. Convergence between telecommunications and audiovisual: consequences for the rules governing the information market. Bruxelas: LAB meeting on convergence – Regulatory Issues, European Commission – Legal Advisory Board, 30 abr. 1996. <http://www2.echo.lu/legal/en/converge/960430/garnham.html>.

____________. La economía política de la comunicación - El caso de la televisión. Telos. Madrid: Fundesco, n. 28, dez.-fev. 1991. Cuaderno central (economía de la información y la comunicación). p.68-75.

GLOBO CABO S. A. Globo Cabo assume o controle da Net Sul tornando-se a maior operadora de serviços digitais de banda larga e TV por assinatura da América do Sul. disponível em: <http://www.globocabo.com.br>.

HARVEY, David. Condição pós-moderna: uma pesquisa sobre as origens da mudança cultural. São Paulo: Loyola, 1994.

HOBSBAWN, Eric. Era dos extremos: O breve século XX. São Paulo: Companhia das Letras, 1995.

JAMBEIRO, Othon. A comunicação e o cenário internacional contemporâneo. Idade Mídia. Salvador: UFBA, 1995. p. 164-184.

LACROIX, J.; MIÈGE, V.; MOEGLIN, P.; PAJON, P.; TREMBLAY, G. La convergencia entre telecomunicaciones y audiovisual. Por una renovación de perspectivas. Telos. Madrid: Fundesco, n. 34, jun.-ago. 1993. Cuaderno Central.

MERMELSTEIN, André. Internet em alta velocidade. Apresentação: a internet vai mudar. Pay TV. Tutorial disponível no site <http:// www.paytv.com.br/mercado/tutorial/index.htm>

MURCIANO, Marcial. Lo global y lo local en las estruturas de comunicación internacionales. Monopólios o redes. Telos. Suplemento da revista n. 34. Madrid: Fundesco, 1994. p. 13-38.

NOAM, Eli. Towards the third revolution of television. Texto apresentado no Symposium on produtive regulation in the TV market. Gütersloh, Alemanha: Bertelsmann Foundations. 1 dez. 1995 .

OHL, Murilo. Internet em alta velocidade. Produção já começou. Falta virar bom negócio. Pay TV. Tutorial disponível no site <http:// www.paytv.com.br/mercado/tutorial/index.htm>

PISCITELLI, Alejandro. Post/televisión. Ecologia de los medios em la era de internet. Buenos Aires, Paidós, 1998.

RAMOS, Murilo César. A introdução da televisão a cabo no Brasil: rede única, rede pública e participação da sociedade. Brasília: Universidade de Brasília, mímeo. Trabalho apresentado no GT Comunicação e Política, durante a III Reunião Anual da Associação Nacional dos Programas de Pós-Graduação em Comunicação (COMPÓS), realizada em Campinas, São Paulo, de 22 a 26 de agosto de 1994.

RICHERI, Giuseppe. La transición de la televisión. Barcelona: Paidós, 1995.

16

____________. Condizioni di base per l’affermazione dei nuovi media. Media Mente: trasmissione televisiva e telematica sui problemi della comunicazione. Roma: Biblioteca digitale/intervista, 12 jan. 1996. <http://www.mediamente.rai.it/home/bibliote/intervis/r/richeri02.htm>.

ROSE, Frank. The televisionspace race: forget the browser. (Bill Gates has.) Microsoft wants to be in the box. Wired. n. 6. abr. 1998. <http://www.wired.com/wired/6.04/features>.

YANUZZI, Maria A. Algunos aspectos del neoconservadorismo político. In: Revista la Línea de Sombra. Rosário: Universidad Nacional de Rosario, n. 2, inv. 1992.

ZANATTA; Carlos Eduardo; Ramos, Raquel. MMDS e LMCS: Regulamento brasileiro é convergente. Pay TV. Tutorial disponível no site. <http:// www.paytv.com.br/mercado/tutorial/index.htm>.

APOSTILA

Márcio Wanderley Procurador do Dist r i to Federal

Professor Subst i tuto da Faculdade de Direi to da UnB

TEMA 1 . Lei Geral de Telecomunicações. Regulamento dos

Serviços de Telecomunicações (Resolução 73/98) e demais

normas gerais.

Ementa : Noções Gerais de concessão, permissão e autorização.

Classificação dos serviços: público versus privado .

Disposições aplicáveis aos serviços em regime público e em

regime privado.

1. Lei Geral de Telecomunicações e a Ação Direta de

Inconstitucionalidade nº 1.668/DF.

A ANATEL, criada pela Lei nº 9.472/97, tem natureza de

Autarquia especial caracterizada pela independência administrativa. Em

razão dessa natureza jurídica, está submetida ao controle do Tribunal de

Contas da União.

A Lei nº 9.472/97 afirma que o Poder Executivo expedirá

Decreto para instituir ou eliminar a prestação de serviço nos regimes

público e privado, bem assim aprovar o plano geral de outorgas de

serviço prestado no regime público.

No que se refere ao regime de prestação de serviços de

telecomunicações no regime privado, a ANATEL, por expressa

determinação da Lei nº 9.472/97, expedirá normas de prestação de

serviços de telecomunicações.

A Lei nº 9.472/97 foi regulamentada pelo Decreto nº

2.338/97. Além desse dois atos normativos, foi editada a Resolução nº

73/98, que é o Regulamento dos Serviços de Telecomunicações.

O Supremo Tribunal Federal, em sede de cautelar, no

julgamento da ADI 1.668/DF, no que interessa, assim decidiu em relação

aos dispositivos abaixo indicados:

Artigo 1191: suspender a execução e aplicabilidade das

expressões “simplificado” e “nos termos por ela

regulados”;

Artigo 19, inciso XV2: suspenso até o final da ação;

Artigo 19, incisos IV e X3: sem redução de texto, dar

interpretação conforme a Constituição para fixar exegese

de que a competência da ANATEL “subordina-se aos

preceitos legais e suplementares que regem a outorga,

prestação e fruição dos regimes público e privado;

Artigo 22, I4: sem redução de texto, dar interpretação

conforme a Constituição, para fixar a exegese de que a

competência do Conselho Diretor fica submetida às

normas gerais e específicas previstas nas leis de regência;

1Art . 119. A permissão será precedida de procedimento l ic i tatório simplif icado , instaurado pela Agência , nos termos por ela regulados , ressalvados os casos de inexigibi l idade previstos no ar t . 91 , observado o disposto no ar t . 92 , desta Lei . 2Art . 19 . À Agência compete adotar as medidas necessárias para o atendimento do in teresse público e para o desenvolvimento das telecomunicações brasi lei ras , a tuando com independência, imparcial idade, legal idade, impessoal idade e publ icidade, e especialmente: XV – real izar busca e apreensão de bens no âmbi to de sua competência . 3IV – expedir normas gerais quanto à outorga, prestação e f ruição dos serviços de telecomunicações no regime público; X – expedir normas sobre prestação de serviços de telecomunicações no regime privado; 4Art . 22. Compete ao Conselho Dire tor: I I – aprovar normas próprias de l ic i tação e contra tação;

Artigo 595: sem redução de texto, dar interpretação

conforme a Constituição para fixar a exegese segundo a

qual a contratação há de reger-se pela Lei nº8.666/93, ou

seja, considerando-se como regra o procedimento

licitatório.

É conveniente consignar que existem outros dispositivos

impugnados, mas que não foram suspensos pelo STF, ao menos em sede

de liminar.

O Supremo Tribunal Federal tem entendimento assentado

de que a produção dos efeitos da declaração cautelar de declaração de

inconstitucionalidade, seja com efeitos ex nunc ou ex tunc , na ausência

de deliberação do Tribunal em sentido contrário, se dá a partir da

publicação da ata de julgamento no Diário de Justiça. Neste sentido,

dentre os vários precedentes a respeito, está a ADI 711 – Questão de

Ordem, relatada pelo Ministro Néri da Silveira.6

A ata do julgamento da ADI 1.668/DF foi publicada no

Diário de Justiça de 31.08.1998. Desde essa data, portanto, deve ser

observado o julgamento do Supremo Tribunal Federal no que toca à Lei

nº 9.472/97.

2 - Noções Gerais de concessão, permissão e autorização

A concessão, permissão e a autorização de um serviço

público são instrumentos de que o Estado se utiliza para transferir uma

atribuição sua para o setor privado, por meio de contrato administrativo.

O Estado poderia eventualmente prestar o serviço, mas prefere fazê-lo

5Art . 59 . A Agência poderá ut i l i zar , mediante contrato , técnicos ou empresas especial izadas , inclusive consul tores independentes e auditores externos, para executar at ividades de sua competência, vedada a contratação para as at ividades de f iscal ização, sa lvo para as correspondentes at ividades de apoio . 6Supremo Tribunal Federal , Questão de Ordem na Ação Direta de Inconst i tucional idade nº 711/AM, re lator Minist ro Néri da Si lvei ra , acórdão publ icado no DJ de 11.06.1993, página 11.529.

por meio de particular, que é remunerado necessariamente pelos usuários

do serviço.

A doutrina informa que o legislador não foi feliz na

indicação precisa na delimitação do que se deve entender por concessão,

permissão ou por autorização.7

Concessão de serviço de telecomunicação , nos termos do

artigo 83, parágrafo único, da Lei nº 9.472/97, é “a delegação de sua

prestação, mediante contrato, por prazo determinado, no regime público,

sujeitando-se a concessionária aos riscos empresariais, remunerando-se

pela cobrança de tarifas dos usuários ou por outras receitas alternativas e

respondendo diretamente pelas obrigações e prejuízos que causar.”

Permissão em sentido amplo significa um ato

administrativo unilateral, discricionário e precário, gratuito ou oneroso

pelo qual a Administração Pública faculta ao particular a execução de um

serviço público ou a utilização privativa de um bem público por

terceiros.8

O artigo 118, parágrafo único, da Lei nº 9.472/97

conceitua permissão de serviço de telecomunicações como sendo “ato

administrativo pelo qual se atribui a alguém o dever de prestar serviço de

telecomunicações no regime público e em caráter transitório, até que seja

formalizada a situação excepcional que a tenha ensejado”.

É sempre bom lembrar que o Supremo Tribunal Federal,

na ADI 1.668/DF – medida cautelar, determinou a observância do

procedimento licitatório previsto na Lei 8.666/93 e alterações

subseqüentes, bem assim das Leis nº 8.987/95 e 9.074/95. Não se admite

7DI PIETRO, Maria Sylvia Zanel la . Parcer ias na Adminis t ração Pública: concessão, permissão, f ranquia, tercei r ização e outras formas, 4ª edição, São Paulo: Atlas , 2002, página 71. 8DI PIETRO, Maria Sylvia Zanella . Op. ci t . página 128.

na permissão a adoção de procedimento simplificado ou criado pela

ANATEL que viole as Leis acima apontadas.

Por fim, tem-se a autorização de serviço de

telecomunicações , existente somente em serviços prestados em regime

privado (artigos 126 a 144, da Lei nº 9.472/97) e que, nos termos do

artigo 131, parágrafo único, é um “ato administrativo vinculado que

faculta a exploração no regime privado, de modalidade de serviço de

telecomunicações, quando preenchidas as condições objetivas e

subjetivas necessárias”.

3. Classificação dos serviços: público versus privado .

Pela Lei nº 9.472/97, o STFC é modalidade de serviço de

interesse coletivo, prestado tanto no regime público quanto no regime

privado9

Será prestado sob o regime público se existir necessidade

de a União assegurar a continuidade e universalização dos serviços

prestados.

De outro lado, os serviços prestados em regime privado, a

teor do que determina o artigo 14 da resolução 73/98, não estão sujeitos

a obrigações de universalização e continuidade, nem muito menos a

prestação assegurada pela União.

4. Disposições aplicáveis aos serviços em regime público e em regime

privado.

9 Art . 1º PGO: “Art . 1º . O serviço telefônico f ixo comutado dest inado ao uso do públ ico em geral será prestado nos regimes público e privado, nos termos dos arts . 18 , inciso I, 64 e 65, inciso III , da Lei n .º 9 .472, de 16 de ju lho de 1997, e do disposto neste Plano Geral de Outorgas .”

A LGT – Lei nº 9.472/97 – disciplina os serviços

prestados em regime público nos artigos 79 a 125. Os serviços prestados

em regime privado, por seu turno, são regulados nos artigo 126 a 144.

Não se pode perder de vista que, nos termos do decidido

na ADI 1.668/DF, as disposições relativas à Lei de Licitações e à de

Concessões e Permissões também são referência no assunto.

Dentre as Resoluções que cuidam do assunto, merece

destaque a Resolução 73/98, que cuida do tema nos artigo 12 a 20.

TEMA 2 . STFC. Regras Gerais de prestação.

Ementa . Definição de STFC nos instrumentos normativos

pertinentes. PGO. PGMU. PGMQ. Cláusulas dos contratos

de concessão. Condicionamentos nos termos de autorização

das espelhos. Renovação versus prorrogação dos contratos

administrativos.

1 – Definição de STFC nos instrumento normativos pertinentes

O Decreto nº 2534/98, que instituiu o Plano Geral de

Outorgas, conceitua Serviço Telefônico Fixo Comutado – STFC – como

“o serviço de telecomunicações que, por meio da transmissão de voz e de

outros sinais, destina-se à comunicação entre pontos f ixos determinados,

utilizando processos de telefonia”.10

10 Art . 1º , §1º , Plano Geral de Outorgas – PGO– Decreto n .º 2 .534, de 02 de abri l de 1998.

O PGO, no artigo 1º, § 2º, classifica o STFC nas

modalidades de serviço local, serviço de longa distância nacional e

serviço de longa distância internacional.11

Com o intuito de estabelecer metas de qualidade a serem

cumpridas pelas prestadoras de STFC destinado ao público em geral e

atenta aos avanços tecnológicos e ao crescimento das necessidades dos

serviços por parte da sociedade, a ANATEL instituiu, por meio da

Resolução nº 20/98, o Plano Geral de Metas da Qualidade (PGMQ) para

o Serviço Telefônico Fixo Comutado.

O descumprimento das metas implicará a aplicação de

sanções após regular procedimento administrativo, nos termos das

Resoluções 270/2001 e 344/2003. É sempre bom lembrar que todos os

contratos de concessão são apontados pressupostos para a qualidade do

serviço.

2. Cláusulas contratuais essenciais ou necessárias

Os contratos de concessão celebrados com a

Administração Pública contêm cláusulas consideradas essenciais ou

necessárias.

Há algumas cláusulas essenciais aos contratos de

concessão de serviço público em geral que estão mencionadas no artigo

23 da Lei nº 8.987/95. Essas cláusulas se referem ao tipo de serviço

prestado, aos direitos e obrigações do poder concedente, do

concessionário e do usuário; à prestação de contas; à fiscalização; e ao

término da concessão. 11 Art . 1º , § 2º PGO: “§ 2o. São modalidades do serviço telefônico f ixo comutado dest inado ao uso do públ ico em geral o serviço local , o serviço de longa distância nacional e o serviço de longa dis tância internacional , nos seguintes termos: I - O serviço local dest ina-se à comunicação entre pontos f ixos determinados s i tuados em uma mesma Área Local ; I I - O serviço de longa dis tância nacional dest ina-se à comunicação entre pontos f ixos determinados s i tuados em Áreas Locais dis t intas no terri tório nacional ; e I I I - O serviço de longa distância in ternacional dest ina-se à comunicação ent re um ponto f ixo s i tuado no terr i tório nacional e um outro ponto no exter ior .”

A Lei nº 9.472/97 relaciona no artigo 93 as cláusulas

essenciais dos contratos de concessão dos serviços de telecomunicações.

3. Condicionamentos

A cláusula 3.2 do contrato de concessão do STFC,

destinado ao uso do público em geral, diz que, na prorrogação, podem

ser estabelecidas não só novas metas de universalização e qualidade

como "novos condicionamentos", que são em verdade a possibilidade de

modificar o rol de direitos e deveres das empresas.

Entretanto, não é possível modificar a estrutura dos

próprios contratos de concessão, na medida em que a finalidade da Lei nº

9.472/97 é manter a estabilidade do setor.

A rápida evolução tecnológica certamente vai exigir

ajustes periódicos.

4. Prorrogação dos contratos

De início será adotado como contrato sob análise o de

Concessão do STFC modalidade local, publicizado por meio da

Resolução ANATEL nº 26/98.

Este contrato tem por objeto a “concessão do Serviço

Telefônico Fixo Comutado, destinado ao uso do público em geral,

prestado em regime público, na modalidade de serviço local, na área

geográfica definida na cláusula 2.1, nos termos do Plano Geral de

Outorgas”.

Os artigos 99 e 207, §1º da Lei nº 9.472/97 determinam

que os contratos firmados com as então prestadoras do STFC, terão

termo final fixado para o dia 31 de dezembro de 2005, assegurado o

direito à prorrogação única por vinte anos, a título oneroso, desde que

observadas as regras pertinentes aos serviços prestados em regime

público, constantes da própria LGT.

A Resolução 341/2003 convocou as concessionárias de

telefonia fixa para, até o dia 30 de junho, manifestarem o interesse na

prorrogação dos contratos que lhes foram outorgados.

Nessa mesma resolução foram aprovados os novos

modelos de contratos estabelecidos nas modalidades de serviço Local,

Longa Distância Nacional (LDN) e Longa Distância Internacional (LDI)

e o novo Plano Geral de Metas de Qualidade para o Serviço Telefônico

Fixo Comutado (PGMQ), com vigência a partir de janeiro de 2006.

As concessionárias do STFC se interessaram em prorrogar

os contratos de concessão, acrescidos dos novos Planos de Qualidade

previstos na Resolução 341/2003. Também foi editado o Decreto

Presidencial n.º 4.733, de 10 de junho de 2003, que dispõe sobre

políticas públicas de telecomunicações e fixa pontos importantes para os

novos contratos de concessão.

A principal alteração nos novos contratos diz respeito

ao índice de correção das tarifas , que deixa de ser o IGP-DI, que tem

forte vinculação com a variação do dólar, e passa a ser um índice

setorial, que leve em conta variações específicas suportadas pelas

prestadoras. As demais alterações serão tratadas ao longo dos

comentários sobre as cláusulas essenciais.

1

“SERVIÇO TELEFÔNICO FIXO E SERVIÇO DE COMUNICAÇÃO MULTIMÍDIA”

CARLOS JACQUES VIEIRA GOMES Assessor de Ministro do STJ e Professor Substituto de Direito Econômico (UnB) e

de Direito Comercial (UCB e IESB). Mestre em Direito e Estado pela UnB.

Especialista em Regulação em Telecomunicações pela UnB. Ex-Assessor do CADE.

MÓDULO: REGULAMENTAÇÃO DAS REDES DE TELECOMUNICAÇÕES 1. DEFINIÇÃO DE REDE E DE SERVIÇO DE TELECOMUNICAÇÕES

A definição de rede e de serviço de telecomunicação depende da apreensão inicial

do que vem a ser telecomunicação.

Chama-se comunicação a interação direta estabelecida entre dois interlocutores

(pessoas). A comunicação pressupõe a absorção da informação pela mente do receptor e

compreende três etapas: emissão, transmissão e recepção.

Telecomunicação, por sua vez, não se opera entre interlocutores, mas entre meios

técnicos. Também compreende emissão, transmissão e recepção, estabelecidas, entretanto,

entre elementos técnicos.

Nesses termos, a telecomunicação pode ser conceituada como a mediatização da

informação que proporciona a comunicação direta, operada por meio de elementos técnicos

que possibilitem troca instantânea de informações, com reciprocidade ou não. A

telecomunicação compreende, assim considerada, a troca direta e instantânea de sinais que

representem informação, operada por meios técnicos, capazes de propiciar, de outra forma,

a comunicação natural estabelecida entre interlocutores próximos.

A LGT, em seu art. 60, § 1º, assim define telecomunicação: “Telecomunicação é a

transmissão, emissão ou recepção, por fio, radioeletricidade, meios ópticos ou qualquer

outro processo eletromagnético, de símbolos, caracteres, sinais, escritos, imagens, sons ou

informações de qualquer natureza”.

Do conceito exposto, algumas considerações merecem ser tomadas.

2

Primeiro, o transporte de informação, na telecomunicação, não recebe interferência

humana. É realizado por meio técnico, isto é, eletromagnético, de qualquer natureza (fio,

radioeletricidade, meios ópticos ou quaisquer outros). Interessante notar, nesse aspecto, que

o meio técnico utilizado não caracteriza ou delimita o conceito de telecomunicação. Em

outra palavras, telecomunicação não se refere a um determinado ambiente técnico (rede).

Segundo, o transporte de informação, na telecomunicação, é instantâneo: o

armazenamento intermediário de informações não descaracteriza a instantaneidade, porque

esta se referencia aos meios técnicos (a transferência é instantânea entre os meios técnicos)

e não aos interlocutores.

Terceiro, o transporte de informação é elemento caracterizador da telecomunicação.

Deve-se concluir, portanto, que o mero armazenamento de informação não constitui

telecomunicação. Este ponto, entretanto, não é consensual entre os doutrinadores,

assumindo parte da Doutrina que o armazenamento integra o processo e, portanto, o

conceito de telecomunicação.

Quarto, a reciprocidade não é elemento essencial à definição de telecomunicação, a

despeito de o desenvolvimento tecnológico moderno possibilitar, cada vez mais, a

reciprocidade entre os interlocutores.

Quinto, a informação transmitida por meio de telecomunicação compreende todo o

tipo de sinais existentes (escritos, imagens, sons, dados, etc...). Note-se, neste aspecto, que

o tipo de informação transmitida não é capaz de caracterizar ou delimitar o conceito de

telecomunicação. Em outras palavras, telecomunicação não se refere a um determinado

tipo de serviço prestado.

Rede de telecomunicação, por sua vez, conceitua-se como os meios organizados de

telecomunicação. Compreende o sistema ou conjunto de meios técnicos, de natureza

corpórea ou incorpórea, através dos quais é efetuado o transporte de mensagens ou

informações entre pontos determinados.

O Regulamento Geral de Interconexão (Resolução nº 40/98 – ANATEL), em seu

art. 3º, inc. VII, define como rede de telecomunicações o “conjunto operacional contínuo

de circuitos e equipamentos, incluindo funções de transmissão, comutação, mutiplexação

ou quaisquer outras indispensáveis à operação de serviço de telecomunicações”.

Do conceito enunciado, algumas observações merecem atenção.

3

Primeiro, o conjunto de equipamentos deve ser operacional, isto é, deve possibilitar

o transporte de informações.

Segundo, os elementos técnicos devem ser considerados em atenção às funções que

são capazes de exercer, e não em suas características intrínsecas.

Terceiro, as funções exercidas pelas redes são tidas como indispensáveis à operação

do serviço de telecomunicações.

Quarto, rede de telecomunicação pressupõe múltiplos usuários (ao menos três).

Quinto, as redes são compostas de elementos corpóreos (cabos e fios de cobre,

cabos e fios ópticos, cabos coaxiais, condutores e circuitos, edifícios, receptores,

radioeletricidade, dispositivos de comutação, equipamentos, etc...) e incorpóreos

(programas de computador, protocolos necessários à transmissão de informações, servidões

de passagem, direito ao uso de radiofreqüência, etc...).

Sexto, quanto às funções, as redes possuem atividade fim, que é a transmissão de

informações, e atividade meio (comutação, multiplexação), capazes de proporcionar

conexões.

Sétimo, sobre uma mesma base técnica (infra-estrutura), pode-se identificar diversas

redes de telecomunicações, cada uma configurando sistemas distintos, capazes de assegurar

transmissões distintas entre si.

O fenômeno da digitalização, caracterizado pela discreção do sinal analógico

através da codificação dos sinas em seqüência de bits, contribuiu para a fungibilização

qualitativa da informação, isto é, para unir em um único tipo técnico as diversas qualidades

(tipos; por exemplo: voz, dados e imagens) de informação transportada.

Esse avanço tecnológico, por sua vez, contribui para a progressiva desvinculação

entre a qualidade da informação transportada (o serviço prestado) e o meio técnico

empregado (a rede utilizada). Conclui-se, aqui, que a digitalização capacita a uma mesma

infra-estrutura abarcar diversos serviços de telecomunicações. A esse fenômeno dá-se o

nome de convergência de redes.

A convergência de redes assiste a três estágios de evolução. No primeiro estágio,

cada rede é capaz de prestar apenas um determinado serviço de telecomunicação. No

segundo estágio, uma mesma rede pode propiciar, em níveis distintos de qualidade,

diversos serviços de telecomunicação (por exemplo: televisão digital, acesso à internet,

4

videoconferência, telefonia fixa, telefonia celular, transmissão de dados, etc...). No terceiro

estágio, as redes convergem para uma plataforma única, a qual ainda não foi alcançada em

nosso momento histórico por limitações de ordem técnica e econômica.

As redes de telecomunicação subdividem-se em redes de acesso e redes de

transporte.

As redes de acesso alcançam o usuário de serviço de telecomunicações. Podem

utilizar cabos (chamadas de wired ou fixed-link) e postes ou radiofreqüência (conhecida

como wireless).

As redes de transporte são aquelas que conectam redes de acesso. Possuem um

tráfego maior, o que proporciona elevada economia de escala e escopo, com conseqüente

redução de seu custo operacional.

As redes de telecomunicação possuem como limite físico o chamado ponto de

terminação de rede, o qual integra a rede de telecomunicação e é caracterizado pelo

conjunto de conexões físicas e radioelétricas, bem como especificações técnicas de acesso,

a que se conectam os terminais de telecomunicação.

O Regulamento do Serviço Telefônico Fixo Comutado (Resolução nº 85/ANATEL)

define como ponto de terminação de rede (art. 3º, inc. XII) o “ponto de conexão física da

Rede Externa com a Rede Interna do Assinante, que permite o acesso individualizado ao

STFC”.

Nos termos dos arts. 11, inc. VII, e 46, da Res. nº 85, o ponto de terminação de rede

deve estar localizado na zona lindeira do imóvel indicado pelo assinante ou no seu interior.

O Regulamento do Serviço de Comunicação Multimídia (Resolução nº

272/ANATEL), por sua vez, define como (ponto de) terminação de rede (art. 4º, inc. XII) o

“ponto de acesso individualizado de uma dada rede de telecomunicações”.

Serviço de telecomunicações pode ser definido como a oferta de acesso a uma dada

rede de telecomunicações, capaz de propiciar ao seu usuário a utilidade desejada, qual seja,

a intenção de se comunicar mediante o efetivo uso da rede de telecomunicação. Prestador

de serviço de telecomunicações é, portanto, aquele que oferta ao usuário o uso de rede de

telecomunicação.

Para a LGT (art. 60), serviço de telecomunicação é o conjunto de atividades que

possibilita a oferta de telecomunicação. O Regulamento dos Serviços de Telecomunicações

5

(Resolução nº 73/98 – ANATEL), por sua vez, conceitua serviço de telecomunicações

como “o conjunto de atividades que possibilita a oferta de transmissão, emissão ou

recepção, por fio, radioeletricidade, meios ópticos ou qualquer outro processo

eletromagnético, de símbolos, caracteres, sinais, escritos, imagens, sons ou informações de

qualquer natureza”.

Há dois critérios básicos para se definir o serviço de telecomunicação: o da

atividade realizada e o da utilidade produzida. A ANATEL (Res. nº 73/98, art. 22) elegeu o

critério da utilidade produzida: “Os serviços de telecomunicações serão definidos em vista

da finalidade para o usuário, independentemente da tecnologia empregada e poderão ser

prestados através de diversas modalidades definidas nos termos do art. 69 da Lei nº 9.472,

de 1997”.

Conclui-se, nesse contexto, que o serviço de telecomunicação não se define pelo

meio técnico empregado, mas pela utilidade produzida, o que está em consonância com a

crescente convergência de redes, produzida pelo desenvolvimento tecnológico.

Observe-se, ainda, que a LGT conferiu à ANATEL competência para definir quais

sejam, e quais não sejam, serviço de telecomunicações. Assim considerado, o art. 3º do

RST não considera serviço de telecomunicação o provimento de capacidade de satélite, a

atividade de habilitação ou cadastro de usuário e de equipamento para acesso a serviços de

telecomunicações e os serviços de valor adicionado.

O serviço de valor adicionado (LGT, art. 61) constitui a atividade que acrescenta, a

um serviço de telecomunicações que lhe dá suporte e com o qual não se confunde, novas

utilidades relacionadas ao acesso, armazenamento, apresentação, movimentação ou

recuperação de informações. No § 1º ao art. 61, afirma-se que o serviço de valor adicionado

não constitui serviço de telecomunicações. Como exemplos, cite-se as atividades de call

center, o comércio eletrônico e o provimento de conteúdo por páginas de internet (MC,

Portaria nº 148/1995).

Neste último caso (provedor de internet), parte da Doutrina e precedentes judiciais

(STJ, Recurso Especial nº 323358/PR) consideram a atividade serviço de

telecomunicações, porquanto envolve mero acesso à rede de telecomunicação.

Os serviços de radiodifusão sonora e de sons e imagens, bem como o serviço de TV

a Cabo, a despeito de configurarem serviços de telecomunicações, não se vinculam à LGT,

6

mas a regimes jurídicos próprios (arts. 211 e 215, inc. I, da LGT, Lei nº 4117/62 e Lei nº

8977/1995).

Os serviços de telecomunicações compõem-se de atributos (âmbito de prestação e

conteúdo da informação transmitida), modalidades (forma da rede de telecomunicação

empregada, meios de transmissão e tecnologia empregados) e utilidade/finalidade para o

usuário.

O serviço telefônico fixo comutado (STFC), por exemplo, adota como utilidade a

comunicação entre pontos fixos determinados, como atributos a transmissão de voz ou

outros sinais local, em longa distância nacional e em longa distância internacional e como

modalidade os processos de telefonia (RSTFC, art. 3º, inc. XX), isto é, aqueles que

(RSTFC, art. 3º, inc. XV) permitem a comunicação entre pontos fixos determinados, de voz

e de outros sinais, utilizando técnica de transmissão nos modos 3,1 kHz-voz ou 7 hHz-

áudio ou até 64 kbits/s irrestrito, por meio de fio, radioeletricidade, meios ópticos ou

qualquer outro processo eletromagnético.

O serviço de comunicação multimídia (SCM), por sua vez, adota como utilidade a

comunicação entre pontos fixos, como atributos a transmissão internacional, nacional,

regional ou local de informação multimídia (Res. nº 272/2001 – ANATEL, art. 4º, inc. I:

sinais de áudio, vídeo, dados, voz e outros sons, imagens, textos e outras informações de

qualquer natureza), que não se confunda com o STFC, os serviços de comunicação de

massa (radiodifusão, tv a cabo, distribuição de sinais multiponto multicanal, distribuição de

sinais de televisão e de áudio por assinatura via satélite) ou quaisquer outros sinais de vídeo

e áudio irrestrito (Súmula nº 06, de 24/01/2002), e como modalidade quaisquer meios

eletromagnéticos, inclusive radiofreqüência, desde que não sejam meios característicos de

prestação de STFC (Res. 272/2001 - ANATEL, art. 66), em especial o encaminhamento de

tráfego telefônico por meio da rede de SCM simultaneamente originado e terminado nas

redes do STFC, e desde que o sinal transportado seja recebido direta e livremente pelo

público em geral como ocorre no serviço de radiodifusão, ou distribuído de forma

simultânea para os assinantes, como se dá nos serviços de TV a cabo, MMDS e DTH

(Resolução 328/2003 – ANATEL, item 3.4.2 do termo de autorização de SCM).

O serviço móvel celular (SMC; Decreto nº 2056/96) possui como utilidade a

comunicação com mobilidade, isto é, a permissão para que o usuário tenha locomoção

7

irrestrita, como atributos a prestação terrestre em área geográfica delimitada no território

nacional de qualquer informação e como modalidade a utilização de sistema de

radiocomunicações com técnica celular, interconectado à rede pública de telecomunicações,

e acessado por meio de terminais portáteis, transportáveis ou veiculares, de uso individual.

Os serviços de telecomunicação, quanto ao regime jurídico em que são prestados,

classificam-se em público ou privado, e quanto à abrangência dos interesses que atendem,

classificam-se em interesse coletivo e interesse restrito (LGT, arts. 62 e 63).

Os serviços prestados em regime público são aqueles de interesse coletivo cuja

existência, universalização e continuidade a própria União compromete-se a assegurar

(LGT, art. 64). No regime da LGT, é de regime público o STFC (art. 64, § 1º da LGT e art.

13 do RST). Em diplomas legais específicos, sujeitam-se ao regime público os serviços de

TV a cabo e móvel celular. E cabe ao Poder Executivo instituir ou eliminar a prestação de

serviço em regime público, bem como aprovar o plano geral de outorgas dos serviços

prestados em regime público (LGT, art. 18, caput e incisos).

A universalização do serviço está ligada ao objetivo de ofertar o acesso a qualquer

cidadão e em qualquer localidade, independentemente de tal prestação possuir viabilidade

econômica ou não (LGT, art. 79, § 1º).

A continuidade refere-se à fruição ininterrupta do serviço, sem qualquer paralisação

injustificada, em condições adequadas de uso (LGT, art. 79, § 2º). Admite-se a interrupção

circunstancial em razão de emergência, motivada por questões de ordem técnica ou de

segurança nas instalações (RST, art. 45).

A concessão é o instrumento contratual utilizado para a prestação de serviço em

regime público; sua outorga depende de licitação. Apenas em hipóteses excepcionais

admite-se o uso da permissão (LGT, art. 118).

A prestação do serviço em regime público, entretanto, não exclui a possibilidade de

sua prestação em regime privado, com o intuito de assegurar a concorrência (LGT, art. 65,

inc. III).

A remuneração devida às concessionárias está sujeita à política tarifária impositiva

do órgão regulador (RST, art. 47), o qual apenas poderá autorizar a prática de preços livres

se a estrutura concorrencial do mercado considerado a recomendar (LGT, art. 104 e RST,

art. 48).

8

A prestação do serviço em regime público deve ser adequada, assim entendida

aquela que preencha os requisitos de regularidade, eficiência, segurança, atualidade,

generalidade, cortesia e modicidade das tarifas (RST, art. 46 e parágrafos).

A extinção da concessão acarreta a reversibilidade dos bens utilizados para a

prestação do serviço à União (LGT, art. 102).

Os serviços prestados em regime privado não estão sujeitos a obrigações de

universalização e continuidade, nem prestação assegurada pela União (RST, art. 14). A sua

prestação vincula-se aos princípios constitucionais da atividade econômica (LGT, art. 126)

e a intervenção do órgão regulador será mínima (LGT, art. 128 e RST, art. 54), com vistas a

garantir a livre competição, o equilíbrio concorrencial e as necessidades dos usuários.

O instrumento contratual utilizado para a prestação em regime privado é a

autorização. Possui direito à autorização aquele que preencher as condições objetivas

(LGT, art. 132) e subjetivas (LGT, art. 133) exigíveis.

A prática de preços é livre (LGT, art. 129), salvo nos casos em que a

impossibilidade técnica ou o comprometimento da prestação do serviço de interesse

coletivo impossibilite a inexistência de limite ao número de autorizatários. Em tais

hipóteses, haverá política tarifária, como definida em processo licitatório.

Por fim, os bens utilizados pelos prestadores em regime privado são de propriedade

destes e não estão sujeitos à reversão (salvo o espectro de radiofreqüência, que constitui

bem público: LGT, art. 157).

O serviço de interesse coletivo é aquele (RST, art. 17) cuja prestação deve ser

proporcionada pela prestadora a qualquer interessado na sua fruição, em condições não

discriminatórias e suficientes ao atendimento dos interesses da coletividade.

O serviço de interesse coletivo pode ser prestado em regime público ou privado. A

rede de telecomunicação que confere suporte a serviço de interesse coletivo, no regime

público ou privado, está sujeita à interconexão (RST, art. 59, RGI, art. 12 e LGT, arts. 145

e 146). É livre a interconexão de redes que prestam suportes a serviços prestados no regime

privado (LGT, art. 148).

O serviço de interesse restrito (RST, art. 18) é aquele destinado ao uso do próprio

executante ou prestado a determinados grupos de usuários, selecionados pela prestadora

mediante critérios por ela estabelecidos, em especial condicionamentos necessários a

9

impedir que a prestação do serviço de interesse restrito venha a prejudicar a prestação do

serviço de interesse coletivo (LGT, art. 145, parágrafo único e RST, art. 18, parágrafo

único).

O serviço de interesse restrito deve ser prestado apenas no regime privado (RST,

art. 19) e a autorização para a sua prestação independe de licitação, salvo se demandar o

uso de radiofreqüência (RST, art. 65). A remuneração da prestadora se dará por livre

imposição de preço (RST, art. 68).

A rede de telecomunicação que conferir suporte à prestação de serviço de interesse

restrito não poderá ser objeto de interconexão com outra rede que confira suporte a serviço

de interesse restrito ou coletivo (RST, art. 71, incs. I e II). A prestadora de serviço de

interesse restrito não poderá contratar diretamente com prestadora de serviço de interesse

coletivo, devendo a interligação, nessa hipótese, ocorrer em caráter de acesso ao usuário

(RST, art. 71, inc. III).

2. INTERCONEXÃO. RGI.

Interconexão é a ligação entre redes de telecomunicações funcionalmente

compatíveis, de modo que os usuários de serviços de uma das redes possam comunicar-se

com usuários de serviços de outra ou acessar serviços nela disponíveis (LGT, art. 145,

parágrafo único e RST, art. 58, parágrafo único).

O provimento de interconexão deve ser realizado em termos não discriminatórios,

sob condições técnicas adequadas, garantindo preços isonômicos e justos, atendendo ao

estritamente necessário à prestação do serviço (LGT, art. 152).

Ponto de interconexão, por sua vez, é o elemento de rede empregado como ponto de

entrada ou saída para o tráfego a ser cursado na interconexão com outra rede, constituindo o

ponto de referência para definição dos deveres e obrigações de cada uma das partes

envolvidas no contrato de interconexão (Regulamento Geral de Interconexão (Resolução nº

40/98-ANATEL, art. 3º, inc. IX). A interconexão deve ser feita em pontos tecnicamente

viáveis da rede da prestadora que recebe o pedido de interconexão (RGI, art. 13).

Não se considera interconexão a ligação entre rede de telecomunicações de suporte

a serviço de telecomunicação de interesse coletivo e equipamento terminal ou rede de

10

telecomunicação pertencente a usuário ou provedor de serviço de valor adicionado (RGI,

art. 5º).

A rede de telecomunicação que confere suporte a serviço de interesse coletivo, no

regime público ou privado, está sujeita à interconexão (RST, art. 59, RGI, art. 12 e LGT,

arts. 145 e 146). É livre a interconexão de redes que prestam suportes a serviços prestados

no regime privado (LGT, art. 148).

O contrato de interconexão é de livre negociação entre as partes, e sua eficácia está

sujeita à homologação pela ANATEL (RGI, art. 41 e LGT, art. 153 e parágrafos). Não

havendo acordo, a ANATEL, se provocada, arbitrará as condições para a interconexão.

Se necessário à implementação da interconexão, a prestadora objeto do pedido

deverá compartilhar os seus meios, aqui compreendidos os equipamentos, infra-estrutura,

facilidades, etc... (RGI, art. 33).

A infra-estrutura de prestadora cuja rede estiver sujeita a pedido de interconexão

deverá dispor de área suficiente, próxima ao ponto de interconexão, para a instalação de

equipamentos de terceiros, a serem utilizados para a interconexão (RGI, art. 34).

A rede de telecomunicação que conferir suporte à prestação de serviço de interesse

restrito não poderá ser objeto de interconexão com outra rede que confira suporte a serviço

de interesse restrito ou coletivo (RST, art. 71, incs. I e II). A prestadora de serviço de

interesse restrito não poderá contratar diretamente com prestadora de serviço de interesse

coletivo, devendo a interligação, nessa hipótese, ocorrer em caráter de acesso ao usuário

(RST, art. 71, inc. III).

Não se considera interconexão o uso da infra-estrutura de rede alheia com o intuito

de construir a sua própria rede de telecomunicação. A esse direito, que corresponde ao

conceito de desagregação de elementos de rede (unbundling), relaciona-se a idéia de que,

nas redes de acesso local, não basta a interconexão, mas deve ser assegurado ao concorrente

viabilidade técnica para que este construa a sua própria rede.

3. DESAGREGAÇÃO, USO INDUSTRIAL E COMPARTILHAMENTO DE MEIOS

Chama-se desagregação de elementos de rede (unbundling) o uso da infra-

estrutura de rede alheia com o intuito de construir a sua própria rede de telecomunicação.

11

Nas redes de acesso local, não basta a interconexão: deve ser assegurado ao concorrente

viabilidade técnica para que este construa a sua própria rede, a partir dos elementos da rede

local existente (LGT, art. 155).

Ao prestador de STFC é assegurado o direito à desagregação de elementos de rede

(LGT, art. 155 e RGI, art. 39): “As prestadoras de serviço de interesse coletivo devem

tornar disponível, em condições justas e não discriminatórias, facilidades, tais como cabos,

fibras, dutos, postes, torres dentre outras, para uso, quando solicitado, pelas prestadoras

do Serviço Telefônico Fixo Comutado com a finalidade específica destas construírem suas

redes”.

Na desagregação de elementos de rede, a prestadora titular da rede a ser

desagregada deverá ofertar os elementos de rede individualmente, no interesse do outro

prestador, não podendo exigir a oferta casada de diversos elementos de rede.

O uso industrial, ou exploração industrial de meios, corresponde ao acordo

estabelecido, em bases justas e não discriminatórias, entre prestadoras de serviços de

interesse coletivo (LGT, art. 154, RST, arts. 60, inc. I e 61, e RGI, art. 40), com o intuito de

compartilhar meios em benefício da prestação do serviço de telecomunicações aos seus

usuários.

O uso industrial deve ser incentivado sempre que houver viabilidade técnica (LGT,

arts. 2º, inc. III, 3º, inc. II, e 5º), porquanto reduz o custo de implantação e manutenção de

rede. Mesmo o espectro de radiofreqüência é passível de compartilhamento, por meio da

tecnologia MVNO. A LGT, entretanto, não condiciona o espectro de radiofreqüência ao

compartilhamento.

Se necessário à implementação da interconexão, a prestadora objeto do pedido

deverá compartilhar os seus meios, aqui compreendidos os equipamentos, infra-estrutura,

facilidades, etc... (RGI, art. 33).

A infra-estrutura de prestadora cuja rede estiver sujeita a pedido de interconexão

deverá dispor de área suficiente, próxima ao ponto de interconexão, para a instalação de

equipamentos de terceiros, a serem utilizados para a interconexão (RGI, art. 34). 4. DISPOSIÇÕES APLICÁVEIS ÀS REDES DE SUPORTE DE

SERVIÇOS DE INTERESSE COLETIVO

12

A rede de telecomunicação que confere suporte a serviço de interesse coletivo, no

regime público ou privado, está sujeita à interconexão (RST, art. 60, RGI, art. 12 e LGT,

arts. 145 e 146).

Se necessário à implementação da interconexão, a prestadora objeto do pedido

deverá compartilhar os seus meios, aqui compreendidos os equipamentos, infra-estrutura,

facilidades, etc... (RGI, art. 33).

A infra-estrutura de prestadora cuja rede estiver sujeita a pedido de interconexão

deverá dispor de área suficiente, próxima ao ponto de interconexão, para a instalação de

equipamentos de terceiros, a serem utilizados para a interconexão (RGI, art. 34).

No que se refere ao uso do espectro de radiofreqüência, as prestadoras de serviço no

interesse coletivo deterão prioridade sobre aquelas que o prestam no interesse restrito (RST,

arts. 42, § 1º e 74).

Se o serviço de interesse coletivo for prestado sob o regime privado, os bens

utilizados são de propriedade dos prestadores e não estão sujeitos à reversão (salvo o

espectro de radiofreqüência, que constitui bem público: LGT, art. 157).

5. DISPOSIÇÕES APLICÁVEIS ÀS REDES DE SUPORTE DE SERVIÇOS DE INTERESSE RESTRITO

A rede de telecomunicação que conferir suporte à prestação de serviço de interesse

restrito não poderá ser objeto de interconexão com outra rede que confira suporte a serviço

de interesse restrito ou coletivo (RST, art. 71, incs. I e II).

A prestadora de serviço de interesse restrito não poderá contratar diretamente com

prestadora de serviço de interesse coletivo, devendo a interligação, nessa hipótese, ocorrer

em caráter de acesso ao usuário (RST, art. 71, inc. III).

A prestadora de serviço de interesse restrito poderá, entretanto, celebrar acordo de

exploração industrial de meios (uso industrial) com prestadora de serviço de interesse

coletivo, com o intuito de facilitar a construção de acesso à rede que preste serviço de

interesse coletivo (RST, art. 72).

13

A prestadora de serviço de interesse restrito poderá, também, pactuar o uso de infra-

estrutura alheia, pertencentes e entes públicos ou não, necessária à prestação do serviço

(RST, art. 73).

No serviço de interesse restrito, os bens utilizados são de propriedade dos

prestadores e não estão sujeitos à reversão (salvo o espectro de radiofreqüência, que

constitui bem público: LGT, art. 157).

14

MÓDULO: REGRAS GERAIS DE PRESTAÇÃO DO SERVIÇO DE COMUNICAÇÃO MULTIMÍDIA 1. REGRAS GERAIS DE PRESTAÇÃO DE SCM. RESOLUÇÃO Nº 272.

O serviço de comunicação multimídia (SCM) adota como utilidade a comunicação

entre pontos fixos, como atributos a transmissão internacional, nacional, regional ou local

de informação multimídia (Res. nº 272/2001 – ANATEL, art. 4º, inc. I: sinais de áudio,

vídeo, dados, voz e outros sons, imagens, textos e outras informações de qualquer

natureza), que não se confunda com o STFC, os serviços de comunicação de massa

(radiodifusão, tv a cabo, distribuição de sinais multiponto multicanal, distribuição de sinais

de televisão e de áudio por assinatura via satélite) ou quaisquer outros sinais de vídeo e

áudio irrestrito (Súmula nº 06, de 24/01/2002), e como modalidade quaisquer meios

eletromagnéticos, inclusive radiofreqüência, desde que não sejam meios característicos de

prestação de STFC (Res. 272/2001 - ANATEL, art. 66), em especial o encaminhamento de

tráfego telefônico por meio da rede de SCM simultaneamente originado e terminado nas

redes do STFC, e desde que o sinal transportado seja recebido direta e livremente pelo

público em geral como ocorre no serviço de radiodifusão, ou distribuído de forma

simultânea para os assinantes, como se dá nos serviços de TV a cabo, MMDS e DTH

(Resolução 328/2003 – ANATEL, item 3.4.2 do termo de autorização de SCM). As prestadoras de SCM podem requerer a prestação de quaisquer outros serviços

de telecomunicações, exceto radiodifusão, o que atesta a existência de espaço regulatório

para a convergência de redes, as quais poderão ser utilizadas para a prestação de múltiplos

serviços.

O serviço de comunicação multimídia é de interesse coletivo e prestado sob o

regime privado, em âmbito nacional e internacional, a assinantes dentro de uma área de

prestação de serviço, mediante a oferta de capacidade de transmissão, emissão e recepção

de informações multimídia (RSCM, art. 3º).

Por ser serviço de interesse coletivo, a interconexão, quando solicitada, é

obrigatória (RSCM, art. 6º). Admite-se a exploração industrial de meios e o

compartilhamento de meios (RSCM, arts. 8º, 9º, 48, inc. I e 49).

15

A prestação de SCM sujeita-se a autorização, sem limite de autorizatários (RSCM,

art. 10, caput e parágrafo único).

Não se admite a oferta de produtos acessórios com requisito ao acesso à rede de

prestadora de SCM (venda casada; RSCM, art. 50).

Por informação multimídia não se deve entender o fornecimento de sinal de áudio

ou vídeo irrestrito, salvo o fornecimento de sinais de vídeo e áudio, de forma eventual,

mediante contrato ou pagamento por evento (RSCM, art. 67).

2. SCM x STFC

O serviço de comunicação multimídia se assemelha ao STFC pela utilidade que

presta: comunicação entre pontos fixos, mas dele se distingue porquanto a exigência

regulatória (Res. 272/2001 - ANATEL, art. 66) afasta a prestação de SCM por modalidade

que configure meios característicos de prestação de STFC, em especial o encaminhamento

de tráfego telefônico por meio da rede de SCM simultaneamente originado e terminado nas

redes do STFC.

3. SCM x COMUNICAÇÃO ELETRÔNICA DE MASSA

O serviço de comunicação multimídia se distingue dos serviços de comunicação

eletrônica de massa porque o atributo de informação multimídia (Res. nº 272/2001 –

ANATEL, art. 4º, inc. I: sinais de áudio, vídeo, dados, voz e outros sons, imagens, textos e

outras informações de qualquer natureza) não se confunde com radiodifusão, tv a cabo,

distribuição de sinais multiponto multicanal, distribuição de sinais de televisão e de áudio

por assinatura via satélite ou qualquer outro sinal de vídeo e áudio irrestrito (Súmula nº

06/ANATEL, de 24/01/2002).

Por informação multimídia não se deve entender o fornecimento de sinal de áudio

ou vídeo irrestrito, salvo o fornecimento de sinais de vídeo e áudio, de forma eventual,

mediante contrato ou pagamento por evento (RSCM, art. 67).

A modalidade de prestação de SCM não comporta, ademais, sinal transportado e

recebido direta e livremente pelo público em geral como ocorre no serviço de radiodifusão,

ou ainda distribuído de forma simultânea para os assinantes, como se dá nos serviços de TV

16

a cabo, MMDS e DTH (Resolução 328/2003 – ANATEL, item 3.4.2 do termo de

autorização de SCM). 4. SCM x SVA

O serviço de comunicação multimídia é serviço de telecomunicação de informação

multimídia, prestado em qualquer modalidade que não se confunda com STFC ou serviços

de comunicação de massa, enquanto que o serviço de valor adicionado não é serviço de

telecomunicação (LGT, art. 61, § 1º), mas atividade que acrescenta, a um serviço de

telecomunicações que lhe dá suporte e com o qual não se confunde, novas utilidades

relacionadas ao acesso, armazenamento, apresentação, movimentação ou recuperação de

informações.

O prestador de SVA, entretanto, possui direito ao acesso das redes de suporte do

SCM (RSCM, art. 7º).

5. SCM E TRANSIÇÃO SLE e SRTT.

O serviço de comunicação multimídia, por expressa disposição regulatória (art. 2º

da Resolução nº 272/ANATEL), abarca o serviço limitado especializado, nas

submodalidades serviço de rede especializado e serviço de circuito especializado, bem

como o serviço de rede de transporte de telecomunicações, compreendendo o serviço por

linha dedicada, o serviço de rede comutada por pacote e o serviço de rede comutada por

circuito.

As autorizações concedidas para esses serviços podem ser adaptadas ao regime

regulatório do SCM, desde que atendidas as condições subjetivas e objetivas requeridas

(RSCM, art. 68).

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Texto Elaborado por Prof. Paulo A. De Britto Para o Curso STFC/SCM

I. COMPETIÇÃO

1. A FIRMA COMPETITIVA NO CURTO PRAZO

Uma firma é dita ser competitiva se existe um preço de mercado ao qual

consumidores irão comprar qualquer quantidade que a firma decidir ofertar para venda.

Uma firma competitiva se defronta, então, com uma curva de demanda horizontal.

Este situação é mais provável de ocorrer quando a firma é muito pequena em

relação a sua indústria. Não interessa o quanto a firma produz, isto não afeta

significativamente o produto total da indústria. Portanto, não existe efeito significante

sobre o preço ao qual o produto é vendido.

Um bom exemplo que podemos utilizar é o de uma fazenda de trigo, que provê

um percentual muito pequeno da produção mundial total de trigo. Independentemente

do fato desta fazenda produzir 10 ou 1.000 bushels, ela permanece sendo muito

pequenoapara ter qualquer impacto sobre o preço de mercado quotado mundialmente.

A curva de demanda por seu trigo é horizontal porque o mercado irá absorver qualquer

quantidade produzida por nosso fazendeiro seja qual for o preço. Se ele tenta vender

seu trigo por um centavo – ou por uma fração de centavo – a mais do que o preço de

mercado, ele não irá vender um único trigo sequer, pois todos os consumidores podem

simplesmente comprar de outro produtor. Se ele oferece seu trigo por um centavo

menos, o público irá demandar mais trigo do que sua fazenda pode produzir – uma

quantidade infinita.

É claro que a curva de demanda por trigo é negativamente inclinada: é somente

a demanda pelo trigo de nossa fazenda que é horizontal. Para ver como isto pode ser,

observe as duas curvas de demanda descritas na figura 1. Note, em particular, as

unidades apresentadas no eixo das quantidades. Quando nossa fazendinha aumenta seu

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

produto de 1 bushel para 10 bushels – lembre que ela vende tudo o que produz - ela

está movendo uma longa distância para a direita no seu eixo das quantidades. Ao

mesmo tempo, ela move a indústria de trigo para a direita em uma distância

praticamente infinitesimal, digamos de 70.000.000 para 70.000.009 bushels. Este

mudança pequenina no produto da indústria requer essencialmente não efeito sobre o

preço.

Figura 1:

(A) (B)

A curva de demanda horizontal com a qual nossa fazendinha se defronta resulta

do fato de sua existência ser uma parte muito pequena de uma indústria muito grande,

cujos produtos de cada produtores são intercambiáveis e os consumidores podem muito

facilmente comprar de outro produtor se a nossa fazendinha tenta aumentar seu preço.

Todas estas condições tendem a produzir uma situação de concorrência perfeita. Note,

todavia, que o único requerimento para uma firma ser chamada de perfeitamente

competitiva é que sua curva de demanda seja horizontal, qualquer que seja o motivo.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Receita

Um firma perfeitamente competitiva possui curvas de receita total e receita

marginal simples. Se o preço de mercado é $5 por bushel, a receita total da fazendinha,

bem como sua receita marginal são as representadas na figura 2.

Quando a fazendinha vende Q bushels de trigo, sua receita total é $5 x Q. O

gráfico desta função de receita total é uma linha reta que passa na origem, como no

painel A da figura 2.

Figura 2

(A) (B)

A receita marginal da fazendinha é a mesma para toda a quantidade; ela é

sempre equivalente ao preço de mercado de $5 por bushel. Sempre que ela vende um

bushel adicional, ela coleta $5 adicionais. Em geral, para toda firma competitiva nós

temos a equação:

Receita Marginal = Preço

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

A curva de receita marginal da fazendinha é uma linha horizontal ao nível de $5

por bushel. Em outras palavras, ela se parece exatamente igual à curva de demanda

pelo trigo da fazendinha, que é também igual ao preço de mercado. As curvas de

demanda e de receita marginal são representadas no painel B da figura 2.

A curva de receita marginal de uma firma competitiva é uma linha horizontal ao

nível do preço de mercado.

Custos de Curto-Prazo e Oferta

As curvas de custo de uma firma são diferente no curto e no longo prazo. Isto se

deve ao fato de que no curto prazo alguns fatores de produção serem fixos, enquanto

que no longo prazo todos os fatores são variáveis. Conseqüentemente, a decisão de

oferta da firma será diferente em cada prazo. Suponha que você possui uma pizzaria,

empregando trabalho e fornos. Se o preço da pizza sobe, você pode aumentar sua

quantidade produzida no curto prazo contratando mais trabalhadores. No longo prazo,

você também pode construir fornos adicionais. No longo prazo você poderá produzir

ainda mais pizzas.

Portanto, nós devemos fazer distinção entre as duas curvas de oferta. Para

qualquer preço dado, a curva de oferta de curto prazo mostra como a firma pode

responder àquele preço no curto prazo; a curva de oferta de longo prazo mostra como a

firma pode responder àquele preço no longo prazo. Nesta seção nós vamos nos

concentrar no comportamento da firma no curto prazo, retornando ao longo prazo na

seção 3. Para tanto devemos começar considerando as curvas de custo de curto prazo.

A decisão de oferta quando o custo marginal é crescente

Suponha que os custos marginais de nossa fazendinha de trigo são aqueles

representados na figura 3. O lucro será maximizado quando o custo marginal for

igualado a receita marginal: nossa fazendinha deseja produzir 4 bushels e vende todos

ao preço de mercado de $5 por bushel.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Qualquer firma, competitiva ou não, escolhe sua quantidade de acordo com a

regre:

Custo Marginal = Receita Marginal

Figura 3

Para uma firma competitiva a receita marginal é igual ao preço de mercado.

Assim, podemos afirma que:

A firma competitiva escolhe sua quantidade de acordo com a regra:

custo marginal = preço

Esta regra para escolha de quantidades deve ser intuitiva. A firma se defronta

com o preço de mercado ao qual ela pode vender seus bens. Ela produz bens enquanto

ela pode fazê-lo a custos marginais menores que o preço de mercado. Quando o custo

marginal excede o preço, qualquer unidade adicional produzida iria subtrair algo do

lucro da firma. A hora de se parar de produzir é exatamente aquela anterior, quando o

custo marginal de produzir um produto é exatamente igual ao preço ao qual este

produto pode ser vendido.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Suponha que o preço de mercado do trigo seja $6 por bushel. Observando-se a

curva de custo marginal na figura 3, podemos ver que a fazendinha poderia prover 5

bushels de trigo, a quantidade na qual o custo marginal iguala $6 por bushel. Se o

preço de mercado aumentasse para $7, a fazendinha poderia prover 6 bushels. Estes

fatos estão ilustrados na figura 4. A fogura 3 contém os dados referentes a curva de

custo marginal da fazendinha e mostra as quantidades que a fazendinha poderia

produzir a cada preço. Como observado, e ilustrado pelo gráfico, ao preço de $5 ela

poderia ofertar 4 bushels, ao preço de $6 ela poderia ofertar 5 bushels e ao preço de $7

ela poderia ofertar 6 bushels. Estas observações estão registradas nas três últimas linhas

da tabela B. As outras linhas são deduzidas da mesma forma.

Figura 4:

Para cada preço, a tabela B nos diz qual quantidade a fazendinha irá ofertar.

Nós temos um nome para esta tabela: plano de oferta. A representação gráfica desta é a

chamada curva de oferta. De fato, nós já vimos a curva de oferta. Ela é idêntica a curva

de custo marginal, ilustrada na figura 4.

Em que pese as curvas de custo marginal e de oferta serem idênticas, existe

uma diferença conceitual importante entre elas. Para usar a curva de custo marginal,

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

você “entra” uma quantidade (no eixo horizontal) e lê o custo marginal correspondente

em unidade monetária por item (no eixo vertical). Para usar a curva de oferta, você

“entra” um preço (no eixo vertical) e lê a quantidade correspondente (no eixo

horizontal). Todavia, em que pese as diferenças conceituais, o fato de que as curvas são

idênticas na aparência irá provar algo importante.

A irrelevância dos custos fixos

No curto prazo, os custos fixos são inevitáveis. Como resultado, eles não

influenciam qualquer decisão econômica.

A figura 5 mostra as condições da fazendinha sob duas diferentes suposições

sobre os custos fixos. No primeiro exemplo, assumimos um custo fixo de $2 no

segundo, um custo fixo de $20. Em cada caso, ela produzirá no ponto onde custo

marginal iguala o preço de $5: ela produzirá 4 bushels de trigo.

No exemplo 1, a fazendinha realiza lucro máximo de $4; no segundo, o lucro

máximo é de -$14. Mesmo -$14 sendo um número negativo (a fazendinha está

realizando prejuízo), ela ainda assim está maximizando seu lucro no sentido de que

para qualquer outro nível de produto suas perdas seriam maiores.

Uma questão natural agora é: não seria melhor a fazendinha parar sua produção

no segundo exemplo? Se nós estivéssemos examinando o comportamento de longo

prazo, a resposta seria sim, mas no curto prazo a resposta é não. No curto prazo, a

fazendinha está amarrada a gastar $20 sob a forma de custo fixo, que existe mesmo que

ela não opere. Por exemplo, o custo fixo de produção pode ser o arrendamento da terra.

Até que o contrato de arrendamento seja findo, o arrendatário terá que pagar o valor de

arrendamento. Se o arrendatário de nossa fazendinha decide parar de produzir trigo, seu

lucro será de -$20, ao invés de -$14.

Assim, o custo fixo é irrelevante para a decisão de oferta de curto prazo da

firma.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Figura 5:

QUANTIDADE RECEITA TOTAL

RECEITA MARGINAL

CUSTO TOTAL

CUSTO MARGINAL

LUCRO

1 bushel $5 $5 por bushel

$4 $2 por bushel

$1

2 10 5 7 3 3

3 15 5 11 4 4

4 20 5 16 5 4

5 25 5 22 6 3

6 30 5 29 7 1

(Exemplo 1: Custo Fixo = $2)

QUANTIDADE RECEITA TOTAL

RECEITA MARGINAL

CUSTO TOTAL

CUSTO MARGINAL

LUCRO

1 bushel $5 $5 por bushel

$22 $2 por bushel

-$17

2 10 5 25 3 -15

3 15 5 29 4 -14

4 20 5 34 5 -14

5 25 5 40 6 -15

6 30 5 47 7 --17

(Exemplo 2: Custo Fixo = $20).

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

A decisão de oferta com uma curva de custo marginal em forma de U

A fazendinha possui uma curva de custo marginal em forma de U, como aquela

representada na figura 6, onde o preço de mercado é $5. Nós sabemos que tal firma, se

ela produz algo, ela produz uma quantidade na qual o custo marginal e o preço de

mercado são iguais. Nós podemos ver no gráfico que existem duas quantidades nas

quais isto ocorre: Q1 e Q2. Qual será a escolhida pela firma?

Suponha que ela produz Q1 unidades. Neste caso será possível produzir uma

unidade adicional do produto a um custo marginal menor do que o preço de mercado.

Isto ocorre porque a curva de custo marginal é decrescente na vizinhança de Q1. A isto

segue que a firma pode aumentar seu lucro produzindo uma unidade a mais. Ela

continua produzindo enquanto o preço excede o custo marginal até que esteja

produzindo Q2.

Figura 6:

Uma firma competitiva, se ela produz algo, irá sempre escolher a quantidade

onde preço iguala custo marginal quando o custo marginal é crescente. Assim,

podemos afirmar que somente a porção crescente da curva de custo marginal é

relevante para a decisão de produção da firma.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

A decisão de fechar

Nós sabemos a quanto uma firma produzirá se ela decide produzir. Nós

podemos ainda perguntar como uma firma decide entre manter-se em operação e

encerrar suas atividades.

Para que isto faça sentido, o proprietário da firma deve comparar o lucro obtido

quando em operação com o lucro obtido quando encerra fecha suas portas. Se a firma

fecha, ela deve manter os pagamentos de seus custos fixos, enquanto sua receita cai a

zero. Portanto, seu lucro é negativo: -CF, onde CF significa custo fixo. Se a firma

permanece operando, produzindo uma quantidade Q, seu lucro é RT - CT, onde RT é a

receita total e CT é o custo total. Se RT – CT > 0, ela certamente permanece operando.

Mesmo se RT – CT < 0, pode ser o caso onde a firma permaneça operando. A firma

desejará permanecer aberta se, e somente se,

RT – CT > - CF

Substituindo a identidade CT = CF + CV, esta condição fica:

RT – CF – CV > - CF, ou RT > CV.

A última desigualdade deve fazer sentido intuitivo: dado que os custo fixos

devem ser pagos em ambos os casos, eles são irrelevantes para a decisão de

fechamento. Os custos variáveis são os custos adicionais que a firma irá incorrer se ela

continua operando, eles podem ser evitados e, portanto, são relevantes para a decisão

de fechamento. Permanecer em operação somente é uma boa idéia se a receita total que

a firma pode ganhar for maior que estes custos adicionais.

Lembrando que RT = P. Q (P é preço e Q é quantidade), nós temos:

P. Q > CV => P > CV / Q

Em outras palavras, a firma permanece operando se, após escolher a quantidade

ótima a produzir, ela descobrir que o preço é maior que o custo variável médio de

produção.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Curva de oferta de curto prazo

Na figura 7 vemos três possíveis preços de mercado com os quais uma firma

competitiva pode se defrontar. Ao preço de P1, a firma produz Q1. A esta quantidade,

P1 é maior que ambos o custo médio e o custo variável médio. A firma irá permanecer

em operação, produzindo Q1 e obtendo lucro positivo.

Figura 7:

Ao preço de P3, o produto ótimo da firma é Q3. Todavia, o custo variável médio

excede P3. Permanecer operando iria produzir uma redução líquida nos lucros de forma

que a firma fecha.

Ao preço de P2, o produto ótimo da firma é Q2. Aqui, o custo variável médio é

menor do que P2 de forma que a firma permanece aberta. Todavia, o custo médio de

produção (incluindo custo fixo) é maior que P2, de forma que o lucro da firma é

negativo. Mesmo assim, a firma perde menos ao continuar operando do que se fechasse

sua porta.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

O preço P no qual a curva de custo marginal cruza o custo variável médio é

chamado de preço de fechamento da firma. Isto está representado na figura 8. Podemos

concluir que:

A curva de oferta de curto prazo da firma competitiva é idêntica a parte da

curva de custo marginal localizada acima de sua curva de custo variável médio.

Figura 8:

A inclinação positiva de curva de oferta

Quando a curva de custo marginal da firma competitiva possui forma de U, sua

curva de oferta consiste da parte da curva de custo marginal que reside acima do custo

variável médio. Como a curva de custo corta a curva de custo variável médio vindo

debaixo, toda a curva de oferta possui inclinação positiva.

Assim, a curva de oferta é crescente porque as curvas de custo marginal e de

curto médio possuem forma de U. Isto está correto, mas dá origem seguinte pergunta:

Por que as curvas de custo possuem forma de U? A resposta passa pela presença de

retornos marginais decrescentes dos fatores variáveis de produção

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Retornos Marginais Decrescentes: é a circunstância na qual cada unidade de

insumo variável permite a produção de um produto marginal menor do que o último

anterior.

Elasticidade da Oferta

A elasticidade da oferta de firma é definida como a variação percentual na

quantidade ofertada que resulta de um aumento em 1% no preço. A fórmula é a

seguinte:

Elasticidade = Variação Percentual na Quantidade Variação Percentual no Preço

= 100 . ΔQ/Q 100. ΔP/P

= P. ΔQ Q. ΔP

A elasticidade de oferta é positiva porque um aumento no preço gera um

aumento na quantidade ofertada. Dadas duas curvas de oferta passando no mesmo

ponto, a menos inclinada possui elasticidade maior.

2. A INDÚSTRIA COMPETITIVA NO CURTO PRAZO

Uma indústria competitiva é aquela na qual todas as firmas são competitivas e

na qual firmas podem entrar ou sair livremente. Todavia, em que pese as firmas

poderem entrar e sair livremente, elas não podem fazer isso imediatamente. Nós, então,

distinguimos entre longo prazo – um período de tempo no qual entrada e saída são

possíveis – e curto prazo – um período de tempo no qual o número de firmas operando

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

não se altera. O tamanho de cada prazo depende das características tecnológicas da

indústria. Todavia, a caracterização é genérica o bastante.

É importante não confundir a saída com o fechamento da uma firma. Uma firma

que produz quantidade zero tem suas portas fechadas, ou suas atividades encerradas.

Todavia ela permanece pagando seus custos fixos. A firma somente sai da indústria

quando ela deixa da pagar os custos fixos. Fechamento é um fenômeno de curto prazo;

saída, de longo prazo.

A Curva de Oferta de Curto Prazo de uma Indústria Competitiva

No curto prazo, saídas e entradas não são possíveis, de forma que o número de

firmas na indústria é fixo. Dadas as curvas de oferta das firmas individuais, nós

construímos a curva da oferta da indústria somando as das firmas individuais. A um

dado preço, nós nos perguntamos a quantidade que cada firma irá prover; então nós

somamos estes números para obter a quantidade ofertada da indústria a um preço em

particular.

Porque as firmas possuem preços de fechamento que são diferentes, o número

de firmas em operação tende a ser menor quando o preço é mais baixo. Como

resultado, a curva de oferta de indústria tende a ser mais elástica que a curva de oferta

das firmas individuais. Isto pode ser verificado na figura 9. Nesta figura temos as

curvas de oferta de três firmas: A, B e C. Ao preço de P1, somente a firma A produz e,

portanto, a quantidade ofertada pela indústria é a mesma ofertada por A. Ao preço mais

elevado de P2, a firma B também produz e, portanto, a oferta de indústria consiste da

soma das quantidades produzidas por A e B. A um preço suficientemente grande a

firma C também produz e, conseqüentemente a oferta da indústria é ainda maior.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Figura 9:

O efeito preço do fator

Em certos momentos é conveniente modificar a interpretação da curva de oferta

da indústria, como foi vista acima, para levar em consideração o efeito preço do fator.

Isto ocorre quando a indústria em questão representa uma fração substancial da

demanda pelo fator variável de produção. Por exemplo, a indústria de aço representa

uma fração substancial da demanda por ferro. Neste caso, um aumento no preço do aço

causa um amento na produção, o que gera aumentos na demanda pelo insumo variável

ferro. Porque esta consiste em uma fração significativa da demanda total pelo insumo

variável, o preço do insumo se eleva. Este aumento no preço do fator eleva a curva de

custo marginal de todas as firmas na indústria, causando uma redução na produção.

Na presença deste efeito, um aumento no preço irá gerar aumento na oferta da

indústria, mas em proporções menores do que aquela que nós poderíamos esperar.

Similarmente, uma queda no preço irá gerar redução na oferta, mas em proporções

menores. A figura 10 ilustra esta situação. O efeito preço do fator tende a tornar a curva

de oferta da indústria mais inclinada, ou menos elástica.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Oferta, Demanda e Equilíbrio de Curto Prazo

Agora que já derivamos a curva de oferta da indústria, somente precisamos

adicionar a curva de demanda para determinar o preço e a quantidade de equilíbrio.

Nós fazemos isso para nossa indústria de trigo na figura 10, onde a curva de oferta é

designada por O e acurva de demanda por D. A única combinação preço e quantidade

de equilíbrio é a um preço de $3 e a quantidade de 50 milhões de bushels, na qual a

oferta e a demanda se interceptam (ponto E). A preços mais baixos, tal como em $2,25,

a quantidade demandada (72 milhões de bushels – ponto A) será maior do que a

quantidade ofertada (45 milhões de bushels – ponto C). Assim, o preço será puxado

para cima através de um mecanismo semelhante ao de um leilão, até que atinja o nível

de $3 por bushel. O oposto acontecerá quando o preço for mais elevado, como por

exemplo, $3,75, que está acima daquele de equilíbrio.

Figura 10:

Note que para uma indústria competitiva, diferentemente da firma competitiva,

a curva de demanda possui inclinação negativa. Isto ocorre porque cada firma é tão

pequena que isoladamente não afeta o preço, como visto anteriormente. Mas se toda

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

firma na indústria expandisse sua produção, uma substancial diferença se faria sentir.

Consumidores podem ser induzidos a comprar as quantidades adicionais no mercado

somente se o preço pelo bem se reduzisse.

O ponto E é o ponto de equilíbrio para a indústria competitiva porque ao preço

de $3 os vendedores estão desejando oferecer exatamente a mesma quantidade que os

consumidores estão desejando comprar – 50 milhões de bushels.

Devemos esperar que o preço tenda, em realidade, ao seu nível de equilíbrio?

Sim! Observe o que ocorre quando o preço é menor. A um preço de, por exemplo,

$2,25 os consumidores estão dispostos a comprar mais; ele também irá fazer as firmas

produzirem menos (lembre que muitas fecharão suas portas). Cada consumidor irá,

então, fazer tudo que pode para obter o bem que deseja. A competição entre

compradores fará o preço se elevar. Note que à medida que o preço se eleva,

consumidores deixam o mercado, ao passo que firmas entram. O preço sobe, então, até

que atinja seu nível de equilíbrio. O raciocínio inverso ilustra o mecanismo de ajuste

quando o preço está acima do seu nível de equilíbrio.

Na prática, em muitos mercados competitivos, os preços se movem em direção

ao equilíbrio durante um longo período de tempo. Todavia, várias influências

transitórias podem deslocar um mercado real de seu ponto de equilíbrio – uma greve de

trabalhadores que reduza produção, uma mudança brusca nos gostos dos consumidores,

etc.

Todavia, como visto, forças importantes empurram os preços em direção ao seu

nível de equilíbrio onde oferta iguala demanda. Estas forças são de fundamental

importância para a análise econômica. Se tais forças não existissem, os preços não

lembrariam aqueles de equilíbrio e, então, não haveria sentido em se estudar a análise

de oferta e demanda. Felizmente, as forças requeridas existem e induzem os mercados

a seu nível de equilíbrio.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

3. EQUILÍBRIO DA INDÚSTRIA E DA FIRMA NO LONGO PRAZO

O equilíbrio de uma indústria competitiva no longo prazo pode diferir daquele

de curto prazo que acabamos de ver. Isto pode duas razões: (i) o número de firmas na

indústria não é fixo no longo prazo e, (ii) no longo prazo as firmas podem variar o

tamanho de suas plantas variando aspectos que são, diferentemente, fixos no curto

prazo. Conseqüentemente, as curvas de custo de longo prazo das firmas (e da indústria)

não são as mesmas que as de curto prazo.

O que irá induzir a entrada de novas firmas na indústria ou encorajar a saída de

velhas indústrias? Em uma única palavra: lucro. Lembre que quando uma firma

escolha a quantidade de produto que irá produzir ela o faz de forma que P = CMg. Isto

pode produzir lucro ou prejuízo, como visto anteriormente. Tais lucros ou prejuízos

são, todavia, temporários para uma firma competitiva, pois novas firmas estão livres

para entrar na indústria se os lucros são atrativos. Pela mesma razão, firmas ativas irão

sair da indústria se elas não puderem cobrir seus custos no longo prazo. Suponha que

as firmas na indústria estejam fazendo lucros muito elevados, acima da taxa de retorno

normal da economia. Então, novas firmas acharão atrativo entrar neste ramo o que

causará expansão na produção que forçará o preço de mercado de volta ao seu nível

inicial.

Em competição perfeita novas firmas podem entrar sob as mesmas condições

que as firmas já ativas. Assim, as novas entrantes possuirão a mesma curva de

demanda individuas que as ativas. Se o preço de mercado não cai, novas firmas entram;

o conseqüente aumento no número de firmas, produzindo as mesmas quantidades,

implica em aumento na quantidade total e na criação de excesso de demanda que, é

claro, empurrará os preços para baixo.

A entrada de novas firmas na indústria, atraídas pela perspectiva de um lucro

positivo, aumenta o produto total, gera excesso de demanda e empurra os preços para

baixo.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

A figura 11 mostra como o processo de entrada funciona. Neste diagrama, a

curva de demanda D a curva de oferta (de curto prazo) original S0 são as mesmas da

figura 10. A entrada de novas firmas em busca de lucros maiores desloca a curva de

oferta de curto prazo da indústria para a direita, em S1. O novo equilíbrio de mercado

ocorre no ponto A (ao invés de E), indicando um produto total de 72 milhões de

bushels vendidos a um preço de $2,25 por bushel.

A entrada de novas firmas aumenta produto e reduz preço.

Figura 11:

Se o preço não caísse, a quantidade ofertada após a entrada seria de 80 milhões

de bushels – ponto F. O preço cai porque a curva de demanda da indústria é

negativamente inclinada: consumidores irão comprar mais somente a preços reduzidos.

Para ver o ponto onde a entrada de novas firmas cessa, devemos considerar

como as novas firmas afetam o comportamento de firmas existentes. Considere a figura

12, onde estão justapostos o diagrama de uma firma competitiva em equilíbrio com o

diagrama de equilíbrio em uma indústria competitiva. Antes de haver qualquer entrada,

o preço de mercado era $3 (ponto E da figura 12(B)) e cada uma das firmas ativas na

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

indústria (assume 1.000) produzia 50.000 bushels – o ponto onde custo marginal e

preço são iguais (ponto e da figura 12(A)). Cada firma se defronta com uma curva de

demanda horizontal D0 na figura 12(A). As firmas dentro da indústria obtinham lucro,

pois o custo médio de produção dos 50.000 bushels por firma era menor do que o

preço.

Figura 12:

(A) (B)

Suponha, agora, que 600 novas firmas são atraídas por estes lucros elevados e

entram na indústria. Cada firma se defronta com a estrutura de custos indicada pelas

curvas de CMe e CMg na figura. Como resultado da produção dos entrantes, a curva de

oferta da indústria se desloca para a direita, como indicado, e o preço cai para $2,25

por bushel. Dado que a curva de demanda de firma é igual ao preço, a curva de

demanda da firma é deslocada para baixo, D1. As firmas na indústria reagem a este

deslocamento da demanda e, conseqüente, preço baixo. Como podemos ver na figura

12(A), cada firma reduz seu produto para 45.000 bushels (ponto a). Mas agora temos

1.600 firmas de forma que o produto total é 45.000 x 1.600 = 72 milhões de bushels,

ponto A na figura 12(B).

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

No ponto alucros positivos ainda estão presentes, pois o preço de $2,25 excede

o custo médio (dado pelo ponto b). Assim o processe de entrada não está completo.

Toda a dinâmica se repete até que todos os lucros sejam extinguidos. Nos painéis da

figura 13 estão representada uma firma competitiva e sua indústria no equilíbrio de

longo prazo. Todos os lucros serão extinguidos quando a entrada de novas firmas

deslocar a curva de oferta de indústria para S2 (na figura 13(B)), onde cada firma

individual se defronta com uma demanda que passa pelo ponto de mínimo da curva de

custo médio (ponto m na figura 12(A)).

Figura 13:

(A) (B)

Note que no ponto m da figura 12(A), cada firma escolhe seu produto de forma

a maximizar seu lucro. Isto ocorre quando P = CMg. Mas a livre entrada também força

o CMe = P no longo prazo (ponto M em 12(B)) pois, se P não fosse igual ao CMe, as

firmas estariam fazendo lucro ou prejuízo.

Quando uma indústria em competição perfeita está no longo prazo, firmas

maximizam lucro de forma que P = CMg e a entrada força os preços para baixo até que

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

a curva de preço seja tangente à curva de custo médio de longo prazo (P = CMe).

Como resultado, no equilíbrio de longo prazo será sempre verdade que P = CMg =

CMe.

4. CONCORRÊNCIA PERFEITA E EFICIÊNCIA ECONÔMICA

Vimos anteriormente que quando a firma está no equilíbrio de longo prazo ela

deve ter P = CMg = CMe, com indicado acima. Isto implica que o equilíbrio

competitivo de longo prazo da firma irá ocorrer no ponto de custo médio mais baixo.

Assim, os produtos da indústria competitiva são produzidos ao ponto de custo mais

baixo para a sociedade.

Um exemplo irá mostrar porque é mais eficiente se cada firma na indústria

competitiva produz no ponto onde CMe é o menor possível. Suponha que a indústria

está produzindo 12 milhões de bushels de trigo. Este quantia pode ser produzida por

120 fazendas, cada uma produzindo 100.000 bushels, ou por 100 fazendas produzindo

120.000 bushels cada ou, ainda, por 200 fazendas produzindo 60.000 bushels cada. É

claro que o mesmo pode ser feito por várias outras combinações, mas por simplicidade

vamos considerar somente estas três possibilidades.

Suponha que os custos médios para cada caso são os apresentados na tabela 2.

Suponha, ainda, que um produto de 100.000 bushels corresponda ao ponto mais baixo

da curva de custo médio, onde o CMe = 0,70 por bushel. Qual das três alternativas é a

mais barata para se produzir estes 12 milhões de bushels de trigo? Observando a coluna

5 da tabela 2 vemos que o custo total de produção da 12 milhões de bushels de produto

é o mais baixo possível 120 firmas produzem ao nível de produto de 100.000, o qual

minimiza custo.

Isto ocorre porque para qualquer nível de produto da indústria, Q, o custo total

da indústria (CMe x Q) será o menor possível se, e somente se, o CMe de cada firma

for o menor possível, ou seja, se o número de firmas realizando a tarefa é tal que cada

uma está produzindo no nível para o qual o CMe é o menor possível.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Tabela 2: Custo Médio da Firma e o Custo Total para a Indústria

Produto da

Firma

(1)

CMe

(2)

Número de

firmas

(3)

Produto da

Indústria

(4)

Custo Total

da Indústria

(5)

60.000 $0,90 200 12.000.000 $10.800.000

100.000 0,70 120 12.000.000 8.400.00

120.000 0,80 100 12.000.000 9.600.00

Podemos ver nas figuras 12 e 13 que este tipo de eficiência de custo caracteriza

competição perfeita de longo prazo. Antes que o equilíbrio de longo prazo seja atingido

(figura 12) firmas podem não estar produzindo ao menor custo. Por exemplo, as 50

milhões de bushels sendo produzidas por 1.000 firmas nos pontos e e E das figuras

12(A) e 12(B) podem ser produzidas a um custo menor por mais firmas, cada um

produzindo um volume menor, pois o ponto de custo médio mínimo se localiza à

esquerda do ponto e em 12(A). Contudo, este problema é corrigido no longo prazo com

a entrada de firmas procurando lucros. Na figura 13 nós vimos que após o processo de

entrada é completo, todas as firmas estão produzindo em seu nível de produto mais

eficiente (mínimo CMe).

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

II. MONOPÓLIO

1. DEFINIÇÃO

Os requerimentos para a definição de um monopólio puro são muito estritos.

Primeiro, somente uma firma existe na indústria. Segundo, não existem produtos

substitutos próximos para aquele ofertado pelo monopolista. Assim, por exemplo,

mesmo que uma cidade possua apenas um ofertante de gás natural, este não é

necessariamente um monopolista – as pessoas podem usar eletricidade, lenha ou

querosene para aquecer suas casa ou cozinhar, por exemplo. Terceiro, deve haver

alguma razão que justifique a não existência (ou entrada) de potenciais competidores.

Caso um destes requerimentos não seja satisfeito o monopólio não se sustentaria.

Estes requerimentos rígidos fazem do monopólio uma raridade no mundo real.

O posto dos correios, ou a companhia telefonia, de uma pequena localidade podem ser

exemplos de indústrias com uma única firma que não se defronta com competição

efetiva. Todavia, a maioria das firmas se defronta com algum grau de competição

representada por produtos substitutos. Se apenas uma ferrovia serve a sua cidade ela

deve competir com linhas de ônibus, companhias de transporte rodoviário de carga e

serviços de transporte aéreo. Similarmente, o produtor de uma marca particular de

cerveja pode ser a única companhia a ofertar este produto, mas existem várias cervejas

substitutas de modo que a cervejaria não constitui um monopolista. Pelo fato de muitas

cervejas serem substitutos próximos, cada cervejaria irá perder oportunidades de

negócios para as outras ao tentar elevar seu preço muito acima dos preços das outras

marcas. Mesmo os correios e as companhias telefônicas enfrentam competição em

áreas mais populosas.

Existe outra razão porque um monopólio puro irrestrito como estudado pela

teoria econômica é raro na prática. Nós veremos com mais detalhe adiante que o

monopólio puro pode gerar um número de fatos indesejáveis. Assim, mesmo em

mercados onde o monopólio puro pode prevalecer, o governo tem intervido de forma a

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

prevenir a monopolização ou limitar o poder discricionário do monopolista em fixar

preço.

2. ORIGENS DO MONOPÓLIO: BARREIRAS A ENTREDA E VANTAGENS DE CUSTOS

Um requerimento chave para a preservação de um monopólio é a exclusão de

rivais em potencial do mercado. Uma forma de se obter isso é através algum

impedimento específico à entrada de novas firmas na indústria. Economistas chamam

tais impedimentos de barreiras à entrada. Alguns exemplos são:

• Restrições Legais: a EBCT possui uma posição de monopólio

porque o Congresso lhe deu esta posição. Companhias privadas que

poderiam competir com a EBTC são proibidas de fazê-lo. Monopólios

locais de vários tipos são estabelecidos, muitas vezes, porque o governo

concede algum tipo de privilégio (exemplo: concessão para comercialização

de alimentos em um estádio municipal) ou previne outras firmas de entrar

na indústria (exemplo: conceder licença para apenas uma companhia de TV

a cabo).

• Patentes: Algumas firmas se beneficiam de uma classe especial

de impedimentos legais chamada de patentes. Para encorajar investimentos,

o governo dá direitos exclusivos de produção por um período de tempo aos

inventores de certos produtos. Enquanto a patente estiver em vigorando, a

firma estará em uma posição protegida e deterá o monopólio. Exemplo: a

Xerox deteve, por muitos anos, o monopólio em cópias em papel padrão.

Muitas companhias farmacêuticas também detêm monopólios na produção

da drogas que desenvolvem. (Laboratório Eli Lilly deteve, até 2003, a

patente sobre o Prozac – o mais consumido antidepressivo no mundo.).

• Controle de Recursos Escassos ou Insumos: se uma certa

mercadoria pode ser produzida apenas utilizando-se um insumo raro, a

companhia que detém o controle sobre a origem daquele insumo pode ser

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

um monopolista. Exemplos são raros: extração sindicalizada de diamantes

na África do Sul.

• Barreiras geradas de forma deliberada: uma firma pode tentar,

deliberadamente, criar dificuldades à entrada de novas firmas. Uma forma é

mover ações judiciais muito caras contra rivais. Outra forma é a de se gastar

quantias exorbitantes em publicidade e propaganda, forçando todo entrante

em potencial a fazer o mesmo.

• Grandes custos enterrados: a entrada em uma indústria irá ser

tanto mais arriscada quanto maiores forem os investimentos iniciais

necessários. Em especial, se este investimento inicial é enterrado

(significando que ele não poderá ser recuperado mesmo por um período

considerável de tempo). Assim, a necessidade de grandes investimentos

enterrados desencoraja a entrada na indústria. Muitos analistas consideram

este ser o mais importante tipo barreira imposta naturalmente. Por exemplo:

a indústria de construção de aeronaves requer grandes investimentos iniciais

enterrados e isto ajudou, por muito tempo, a Boeing a ser um monopolista

na construção de aviões grandes com propulsores à jato e de longo alcance

(com o jumbo 747). A Airbus somente conseguiu competir com a Boeing

após grandes investimentos serem patrocinados por um consórcio de

governos europeus.

Tais barreiras podem manter rivais fora da indústria e assegurar que uma

indústria seja monopolística. Todavia, monopólio pode também ocorrer mesmo na

ausência destas barreiras se uma única firma possui vantagens de custo sobre as rivais.

Dois exemplos disto são: superioridade técnica e economias de escala.

- Superioridade técnica: uma firma cuja expertise e domínio da tecnologia é tão

superior em comparação com suas competidoras pode manter, por um período de

tempo, um monopólio. Por exemplo, durante algum tempo a IBM deteve uma

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

vantagem tecnológica tão grande que ela virtualmente não enfrentou concorrência.

Mais recentemente, a Microsoft estabeleceu uma posição de liderança na indústria de

softwares, especialmente sistemas operacionais, através de uma combinação de

capacidade inventiva e esperteza mercadológica.

- Economias de Escala: quando o tamanho da firma é suficiente para garantir

vantagens em termos de custo sobre uma rival menor, é possível que a firma grande

domine a indústria.

3. MONOPÓLIO NATURAL

As vantagens de custo geradas por economias de escala são muito importantes e

merecem atenção especial. Em algumas indústrias, as economias de escala na

produção, juntamente com as economias de escopo (geradas pela produção simultânea

de um grande número de itens relacionados como, por exemplo, motores de

automóveis) são tão significativas que o produto da indústria pode ser produzido a um

custo bem menor por uma única firma do que por várias firmas menores. Em tais casos,

nós dizemos que existe um monopólio natural. Quando uma firma cresce muito mais

do que suas rivais, suas vantagens naturais de custos acabam por eliminar os

competidores.

Note, ainda, que o que importa é o tamanho relativo da firma em relação à

demanda de mercado. Assim, por exemplo, um banco pequeno em uma pequena cidade

rural, ou um posto de gasolina nesta mesma cidade podem ser monopólios naturais.

Neste caso, contudo, existe vantagem em ser o primeiro.

A figura 1 mostra este tipo de vantagem de custo. Nesta figura são

representados custos médios decrescentes – significando que quanto mais a firma

produz, menores são seus custos médios - que podem conduzir a uma situação de

monopólio natural. Suponha que uma firma produza jogos para videogames: esta firma

possui uma curva de custo médio semelhante aquela da figura 1. Suponha que existam

duas firmas na indústria: uma grande que produz 2 milhões de jogos a um custo médio

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

de R$2,50; e uma menor que produza 1 milhão de jogos a um custo médio de R$3,00.

Claramente, a firma maior pode expulsar e firma menor se ele oferece seus produtos no

mercado por um preço R$2,99 (a firma menor poderia vender pelo mesmo preço

somente realizando prejuízos). Conseqüentemente, um monopólio nascerá

naturalmente, mesmo na ausência de barreiras à entrada.

Uma vez estabelecido o monopólio, as economias de escala atuam como uma

força importante para a manutenção do próprio monopólio. No exemplo da firma que

produz jogos de videogame, ao expulsar a firma menor, a firma maior poderá produzir

2,5 milhões de jogos a um custo médio de R$2,00.

Figura 1:

Note que se o monopolista utiliza seu custo baixo para aumentar seus preços

baixos, o interesse público será bem servido. Todavia, o problema é que a firma pode

elevar seus preços após as outras terem deixado a indústria.

Muitas firmas de utilidade pública operam como monopólios regulados

exatamente por essa razão. A idéia é a de que a tecnologia de produção ou distribuição

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

torna possível para este tipo de firma produzir a custos menores ao se produzir grandes

quantidades. Assim, é preferível que este tipo de firma detenha o mercado inteiro e,

então, se obrigue esta firma a cobrar preços mais baixo através de supervisão de um

regulador. Exemplo: distribuição de água potável.

Existem duas razões básicas para a existência de um monopólio: barreiras à

entrada, tais como restrições legais e patentes, e vantagens de custo resultantes de

tecnologia superior ou economias de escala que produzem monopólios naturais. Em

geral, considera-se indesejável quebrar uma firma grande cujos custos são baixos

devido à escala de produção.

4. A DECISÃO DE OFERTA DO MONOPÓLIO

Uma firma monopolista não possui uma “curva de oferta” como definida no

caso de concorrência perfeita. Um monopolista não está à mercê do mercado; a firma

não deve aceitar o preço de mercado como dado e se ajustar a ele. Um monopolista

possui poder em fixar preço, ou em selecionar uma combinação de preço e quantidade

sobre a curva de demanda que melhor atende aos seus interesses.

Em outras palavras, um monopolista não é um tomador de preços que

simplesmente se adapta a um preço determinado pela oferta e demanda da indústria. Ao

invés disso, um monopolista é um fazedor de preço que pode, se assim ele desejar,

aumentar o preço de venda do produto. Para qualquer preço que o monopolista escolhe,

a curva de demanda por seu produto indica quantas unidades serão demandadas pelos

consumidores.

A curva de demanda que um monopolista enfrenta é, diferentemente daquela de

uma firma perfeitamente competitiva, negativamente inclinada. Isto significa que um

aumento de preço não resultará em perda de todos os consumidores, mas somente a

perda de alguns consumidores. Quanto maior o preço, menos o monopolista espera

vender.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

O mercado não pode impor um preço ao monopolista como ele impõe a uma

firma perfeitamente competitiva. Contudo, o monopolista não pode escolher ambos,

preço e quantidade, simultaneamente. De acordo com a curva de demanda, quanto

maior for o preço, menos ele venderá.

Ao decidir que preço melhor atende seus próprios interesses, o monopolista

deve considerar se seus lucros aumentam quando o preço se altera. A curva de

demanda negativamente inclinada pode causar uma situação onde um aumento

adicional no preço reduz o lucro do monopolista.

Como qualquer firma, o monopolista deseja maximizar seus lucros. Se o

monopolista estiver apto a realizar lucros positivos, ele poderá se manter nesta situação

por um longo período de tempo devido à presença de barreiras a entrada.

Maximização de lucro. Para maximizar lucros, o monopolista deve comparar sua

receita marginal com o custo marginal. A figura 2 mostra uma curva de custo marginal

(CMg) e uma curva de receita marginal (RMg) para um monopolista típico. A curva de

demanda (D) indica, também, a receita média. Ao vender uma quantidade Q de

produto, vendendo cada unidade ao preço P, a receita média por unidade de produto

vendida deve ser igual ao preço. Como a curva de demanda nos dá o preço ao qual uma

quantidade particular pode ser vendida, temos automaticamente P = RMe dado pela

quantidade. Note que a curva de receita marginal está sempre localizada abaixo da

curva de demanda, significando que a RMg é sempre menor que o preço. Isto é

importante e fácil de explicar: o monopólio cobra o mesmo preço de todos seus

consumidores. Se a firma deseja aumentar suas vendas em 1 unidade, ele deve reduzir

o preço de todas as unidades, não somente daquela unidade marginal. Quando ele corta

seu preço para atrair novas vendas, todos os consumidores antigos que já haviam

decidido por comprar o bem são beneficiados. Assim, a receita adicional que o

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

monopolista toma quando suas vendas aumentam em 1 unidade é o preço recebido por

esta unidade marginal menos à receita perdida via redução do preço pago pelos

consumidores antigos. Isto significa que RMg é necessariamente menor do que o

preço; graficamente, isto implica que a curva de RMg está abaixo da curva de

demanda, como na figura 2.

Figura 2:

Determinando o produto que maximiza lucro. Como qualquer outra firma, o

monopólio maximiza seu lucro fixando RMg igual ao CMg de produção. Ele seleciona

o ponto M na figura 2, onde o produto é de 150 unidades. Mas o ponto M não nos diz o

preço pois, como sabemos, preço é maior do que a RMg para o monopolista. Para obter

o preço devemos usar a curva de demanda para encontrar o preço para o qual os

consumidores estão dispostos a comprar cada uma das 150 unidades que o monopolista

produz. A resposta é dada pelo ponto P diretamente acima de M. O monopolista cobra,

então, preço unitário de R$9. Sem surpresa, o preço excede ambos, CMg e RMg.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

O lucro do monopolista é indicado pela área escurecida da figura 2. ele é dado

pela diferença entre preço e custo médio, vezes a quantidade produzida Q. Neste

exemplo, os lucros são de R$5 por unidade, ou R$750.

Para obter a decisão de produção de uma monopolista que maximiza lucro:

1. ache o produto para o qual RMg = CMg;

2. ache a altura da curva de demanda para este nível de produto e determine o preço

correspondente;

3. compare a altura da curva de demanda com a altura da curva de custo médio para ver

se o resultado líquido é lucro ou prejuízo.

Comparando Monopólio e Concorrência Perfeita. Para completar esta análise

vamos comparar a decisão de preço e quantidade do monopolista com aquela de uma

firma competitiva.

1) o lucro do monopolista persiste: a primeira diferença entre concorrência perfeita

e monopólio decorre diretamente da presença de barreiras a entrada na indústria

monopolista. Os lucro, como vistos na figura 2, poderiam ser extintos de

houvesse livre entrada na indústria, com a competição entre as firmas puxando

o preço para baixo. Lembre que uma firma competitiva faz lucro econômico

igual a zero no longo prazo; isto é, ela somente ganha o suficiente para cobrir

seus custos de produção, incluindo o custo de oportunidade dos fatores de

produção próprios empregados. No caso de monopólio, lucros positivos podem

persistir, gerando contestação por parte do público. Como resultado,

monopólios são regulados pelo governo, o que limita seus lucros.

2) Redução de produção para gerar aumento de preços: o preço excessivo é um

problema, mas um problema ainda mais sério é o menor nível de produto:

comparado com concorrência perfeita, o monopolista restringe sua produção e

cobra preços maiores. Lembre que no caso de competição o preço é igual ao

custo marginal e ao custo médio. No caso de monopólio, o preço é superior ao

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

custo médio significando que o monopolista poderia fazer lucro na margem. Ao

produzir uma unidade a mais o monopolista poderia cobrar um preço específico

por este item superior ao seu custo marginal e esta seria consumida por um

consumidor marginal. Mas o monopolista não o faz. Esta situação é

considerada, pelos economistas, como uma ineficiência, pois existem

consumidores desejando pagar por um bem um preço maior que seu custo de

produção, mas, mesmo assim, este bem não é produzido.

Devido a existência de barreiras a entrada, uma firma monopolista pode ganhar

lucros positivos superiores ao custo de oportunidade de produção. Ao mesmo

tempo, o monopolista gera ineficiência na alocação de recursos ao produzir uma

quantidade pequena e cobrar um preço elevado. Por estas razões, algumas das

virtudes de um livre mercado são extinguidos se uma indústria se torna um

monopólio.

A figura 3 mostra a diferença de redutos e preço entre monopólio e competição: Figura 3:

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Benefícios do Monopólio.

1) Monopólio favorece inovações: alguns economistas argumentam

que não podemos comparar as curvas de custo de uma firma monopolista e de

uma competitiva em um único ponto no tempo. Pela simples razão de ser

protegido de possíveis rivais e poder capturar lucros maiores, o monopolista

pode se apropriar de qualquer redução de custo que um eventual avanço

tecnológico lhe proporcione. Assim, o monopolista tem um incentivo bem forte

para investir em pesquisa e desenvolvimento que gere novas tecnologias de

produção e novos produtos.

2) Monopólio-natural produz da forma mais barata possível: lembre

que o monopólio natural foi definido como aquele onde uma firma possui

custos médios decrescentes, isto é, possui custos de produção sempre

decrescentes (note na figura 2, onde descrevemos um monopólio não-natural,

onde os custos de produção são crescentes). Nestes casos, pode ser bom para a

sociedade permitir que o monopólio continue pois os consumidores podem ser

beneficiados pelas grandes economias de escala na produção. Neste caso,

contudo, será apropriado que o governo regulasse o monopolista especificando

limites legais para os preços.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

III. REGULAÇÃO DE MONOPÓLIOS

1. LIMITANDO O PODER DE MERCADO

Nós vimos que uma indústria monopolística pode produzir resultados não tão

desejados pelo interesse público como um mercado perfeitamente competitivo

produziria. Ainda assim, para muitas indústrias a concorrência é um objetivo

impossível. Isto é principalmente verdade na presença de grandes economias de escala

– significando que quanto maior for a oferta de uma firma, menores serão os custos de

produção. Economias de escala significam, portanto, que firmas grandes vão expulsar

firmas pequenas da indústria, acabando com a competição. Como resultado, indústrias

com economias de escala terminam, em geral, tendo um pequeno número de firmas,

cada uma com uma grande fatia de mercado. Em outras palavras, esta indústria está

condenada a ser um oligopólio ou um monopólio.

Mas o que isso tem de ruim? Em alguns casos nada, mas em outros o interesse

público será ameaçado pelo simples fato de a(s) firma(s) na indústria possuir(em)

poder de monopólio. Poder de monopólio (ou poder de mercado) é usualmente

definido como a habilidade que uma firma possui em aumentar e manter os preços de

seus produtos substancialmente acima dos níveis de competição. Em outras palavras, se

uma firma possui poder de mercado ela pode cobrar preços altos sem sofrer qualquer

ameaça de perda de consumidores para potenciais rivais. Assim, um monopólio é, em

geral, indesejável por várias razões. Algumas são óbvias:

1) preços elevados reduzem o bem-estar dos consumidores: os

consumidores pagam preços mais elevados e, portanto, consomem menos de

todos os bens disponíveis na economia;

2) preços elevados produzem distorção na alocação de recursos:

preços elevados tendem a reduzir a quantidade demandada; isto significa menos

trabalho, capital e outros insumos empregados no processo produtivo do bem

em questão. Assim, mais destes recursos serão transferidos para a produção de

bens em concorrência perfeita. Assim, teremos subprodução na indústria

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

monopolística e superprodução na indústria competitiva. Como resultado a

economia não irá produzir as quantidades que melhor atendem o interesse

público.

3) Poder de monopólio cria um obstáculo à melhora na qualidade

do produto ofertado: como o monopolista não se defronta com competidores

que podem tomar parte (ou a totalidade) de seu mercado, os produtos tendem a

ser de baixa qualidade em comparação com a qualidade que poderiam ter se a

firma operasse sob a ameaça dos competidores.

Problemas relacionados à eficiência da economia com um todo são

inerentes ao poder de monopólio. Esta é, portanto, a razão mais forte para a

intervenção governamental no sentido de regular o monopolista e controlar sua

habilidade de manipular preços.

Como e por que a regulação surgiu? A regulação de uma indústria é um processo

estabelecido por lei que restringe ou controla algumas decisões feitas pela firma

regulada, sendo desenhada para proteger o público da exploração por parte de firmas

com poder de monopólio. A regulação é, geralmente, executada por uma agência

governamental especialmente criada para interpretar e administrar a lei. A agência pode

também atuar como uma corte que faz cumprir as leis reguladoras.

A regulação, como definida acima, começou nos EUA quando a população se

levantou contra o abuso que as companhias ferroviárias nacionais e levou a criação da

Interstate Commerce Commision (ICC), em 1887. Somente bem mais tarde é que

foram criadas a Federal Power Commission (FPC) e a Federal Communications

Commission (FCC) em, respectivamente 1920 e 1934. Atualmente, existem várias

agências reguladoras em vários países do mundo.

Em que pese às boas intenções, a regulação tem sido alvo de críticas tais como

a de causar ineficiências e custos excessivos ao público consumidor. Um fato básico

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

sobre a regulação e outras formas de intervenção do governo desenhadas para afetar

operações de mercados é que nem os mercados e nem os reguladores funcionam

perfeitamente. Por exemplo, poder de mercado pode surgir em um mercado não

regulado, mas regulação excessiva ou má concebida pode também produzir efeitos

nocivos.

O que é regulado? Por quem? Em geral, nos países ocidentais as agências

reguladoras são divididas em dois grupos: aquelas que limitam o poder de mercado de

firmas reguladas (ANEEL e ANATEL, por exemplo) e aquelas cuja principal função é

a de proteger consumidores e garantir segurança ao trabalhador (ANVISA e MTE).

2. ALGUNS OBJETIVOS DA REGULAÇÃO

Controle do Poder de Mercado Resultante de Economias de Escala e Escopo. Já

vimos que uma das principais razões para a regulação de indústrias é prevenir que uma

firma adquira poder de mercado. Em algumas indústrias é mais barato ter a produção

realizada por uma única firma do que por várias firmas. O poder de mercado pode ser

construído através da produção em grande escala. Por exemplo, no caso de ferrovias o

custo total de se construir e manter trilhos com tráfego de 100 vagões por dia não é

muito maior do que quando somente 1 vagão os utiliza. Assim, existe uma grande

redução de custo médio como resultado do aumento no tráfego: economias de escala

produzem uma curva de custo médio sempre decrescente no produto total (veja figura

1).

Uma única grande firma pode, ainda, apresentar vantagens de custo sobre um

grupo de pequenas firma quando se torna mais barato se produzir conjuntamente um

número de produtos diferentes. A redução de custo como resultado da produção

conjunta de diferentes bens é chamada de economias de escopo. Um exemplo de

economias de escopo é a manufatura de automóveis de passeio e utilitários por um

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

mesmo produtor. As técnicas empregadas na produção destes dois bens são similares, o

que garante a vantagem, em termos de custo, em se produzir ambos.

Na presença de economias de escala e/ou escopo, uma intervenção

governamental com objetivo de garantir a existência de muitas firmas pode ser nociva

no sentido de aumentar custos de produção.

Quando a produção sob monopólio é mais barata, a competição não será

preservada e a indústria será referida como um monopólio natural. Nesta situação a

sociedade pode preferir a manutenção do monopólio.

Todavia, mesmo que a sociedade decida-se pela manutenção do monopólio, ela

não desejará que o monopolista utilize todo o seu poder de monopólio para fixar

preços. Portanto, a regulação das decisões da firma, tias como preço e qualidade, entra

em cena.

Controle do Poder de Mercado Resultante de Propriedade de Redes Físicas. Outra

fonte de poder de mercado que tem atraído muita atenção recentemente é a propriedade

única de ativos físicos que outras firmas devem usar para competir com o proprietário

daquele ativo. A forma de determinar o preço pelo uso deste ativo é um problema

importante para o regulador.

Considere o seguinte exemplo: várias companhias ferroviárias, competidores

entre si, necessitam utilizar um túnel sob uma montanha, mas este túnel é de

propriedade de uma das companhias ferroviárias. Observe o caso de companhias

telefônicas nos EUA; as redes físicas pertencem a pequenas companhias locais, mas

devem ser utilizadas pelas grandes MCI, AT&T e Sprint para que estas possam

oferecer seus serviços de longa distância, por exemplo.

Em ambos os casos acima, se o regulador deseja ver a competição prevalecer no

mercado, ele deve se certificar de que a firma detentora da propriedade sobre o ativo

fixo deve ser obrigada a permitir o uso de seu ativo a um preço apropriado.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Garantia de Serviço Universal. Um terceiro objetivo da regulação de preços e outras

escolhas da firma é o desejo por serviços universais. Por serviço universal nós nos

referimos à disponibilidade do serviço para todos, a um preço razoável, em especial

para consumidores de baixa renda e em pequenas comunidades onde a escala limitada

de operação pode fazer os custos muitos elevados. Em tais casos, o regulador pode

encorajar ou requerer que uma firma de utilidade pública (tal como uma distribuidora

de energia) sirva alguns consumidores mesmo que isso implique em prejuízos.

Todavia, estes prejuízos em algumas vendas serão sustentáveis se a firma regulada for

permitida a compensar estas perdas ao cobrar preços maiores de outros grupos de

consumidores (em outros mercados). Isto é chamado de subsídio cruzado.

Todavia, o subsídio cruzado somente é possível se a firma regulada for

protegida de competição via preço e da ameaça de concorrência representada pela

entrada de outras firmas nos mercados lucrativos. Sem essa proteção, a firma regulada

irá se ver privadas das oportunidades de lucro em alguns mercados e não poderá

universalizar o serviço em mercados não lucrativos.

3. DOIS PROBLEMAS BÁSICOS COM OS QUAIS OS REGULADORES SE

DEFRONTAM

Como podem os reguladores fixar preços que protejam os consumidores e, ao

mesmo tempo, permitir que a firma regulada cubra seus custos?

Quando os governos regulam preços eles desejam, em geral, prevenir que

aqueles preços sejam tão elevados a ponto de garantir lucro de monopólio para a firma.

Todavia, os governos desejam, ao mesmo tempo, fixar preços compensatórios. Em

outras palavras, os preços devem ser suficientes para permitir que as firmas reguladas

cubram seus custos e, conseqüentemente, sejam financeiramente solventes. Além disso,

aos reguladores é requerido selecionar preços que sirvam o interesse público. Contudo,

estes dois objetivos podem ser conflitantes:

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Preços que promovem o interesse público podem causar problemas financeiros

para as firmas.

Preço igual ao custo marginal? Ou igual ao custo médio?

Muitos economistas advogam, sempre que possível, a fixação do preço igual ao custo

marginal porque esta política gera incentivos para as firmas produzirem quantidades

que melhor atendem os desejos dos consumidores, em termos de eficiência. Todavia,

um problema prático previne o emprego desta regra de determinação de preço em

indústrias reguladas: as firmas poderiam falir. Isto segue dos fatos abaixo:

a. Existência de significantes economias de escala na produção.

b. Economias de escala tornam as curvas de custo médio de longo prazo

decrescentes que qualquer nível de produto.

c. Se o custo médio é decrescente, o custo marginal deve sempre estar abaixo do

custo médio.

Juntando estes três fatos, vemos que se o regulador fixa preço igual ao custo marginal,

e como o custo marginal é menor do que o custo médio, o preço não será grande o

bastante para cobrir os custos médios: a firma irá falir! Uma solução para este

problema seria fixar preço igual ao custo marginal e, então, cobrir o déficit da firma

com fundos públicos: subsídios.

Uma segunda (e popular) opção é a de fixar preço igual ao custo médio. Mas este

método de precificação somente poderá ser implementado com base em decisões

arbitrárias. Quase toda companhia produz diferentes variedades e quantidades de algum

produto (podendo chegar à casa dos milhares). Em uma firma com muitos produtos,

nós não podemos definir o custo médio (CMe = CT/Q), pois deveríamos somar

diferentes produtos para obter Q.

Para o caso de firmas que produzem muitos produtos, os reguladores tem sido atraídos

pelo método conhecido como Regra de Precificação de Ramsey.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Regra de Precificação de Ramsey. Em uma firma regulada com vários produtos, na

qual preço deve exceder o custo marginal para que a firma mantenha-se operando, a

relação P/CMg deve ser maior para os produtos cujas elasticidades da demanda são

menores.

Explicação: suponha uma firma que produza dois bens, A e B, e que a demanda por A

é mais elástica do que a demanda por B. Isto significa que para um dado aumento

percentual os consumidores serão induzidos a cortar suas compras de A mais do que

suas compras de B. Esta regra tem sido proposta para precificar correios e telefone.

Prevenir que firmas com poder de mercado obtenham lucros excessivos podem

eliminar incentivos para eficiência e inovação.

Oponentes da regulação argumentam que ela gera ineficiência e reduz os benefícios

dos mercados livres. Uma fonte óbvia de ineficiência é a enorme burocracia e batalhas

legais que não permitem a firma responder rapidamente a mudanças nas condições de

mercado.

Em adição, economistas acreditam que interferências sobre preços causam ineficiência

econômica. A imposição de preços diferentes daqueles que poderiam prevalecer em um

mercado livre e competitivo induz os consumidores a demandarem quantidades que

não maximizam os benefícios dos consumidores dada à disponibilidade de recursos na

economia.

Uma terceira fonte de ineficiência é a remoção de oportunidades de lucro e, portanto,

da eficiência associada com o próprio lucro, sensibilidade da demanda do consumidor e

inovação. Com efeito, uma regulação que garanta uma taxa de retorno para a firma,

independentemente se seu gerenciamento é totalmente incompetente ou extremamente

talentoso, retira os incentivos criados pela perseguição do lucro. Esta regra é conhecida

como rate-of-return regulation.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Como exemplo temos os contratos para desenvolvimento e fornecimento de

equipamento militar. As compras deste tipo de equipamento têm seus preços

calculados usando-se de contratos conhecidos como cost-plus – o ofertante tem a

garantia de que seus custos serão cobertos e que, em adição, receberão um lucro pré-

especificado. Estudos deste tipo de contrato têm mostrado que os ofertantes são muito

ineficientes.

Curiosamente, os atrasos que caracterizam a maioria dos procedimentos regulatórios,

conhecidos como lag regulatório, são vistos como uma forma de contornar o problema

de incentivo gerado pela fixação da taxa de retorno. Para entender isso, suponha que a

agência reguladora tenha especificado preços que garantam à firma uma taxa de retorno

de, por exemplo, 10%. Se o gerenciamento da firma é efetivo e consegue reduzir

custos, a taxa de retorno efetiva da firma, dados os preços especificados anteriormente,

pode aumentar para, digamos, 12%. Se a agência reguladora demora três anos para

ajustar os preços, a firma ganhará um bônus de 2% ao ano, por três anos (o lag

regulatório), por sua eficiência. Por outro lado, se a firma é mal administrada sua taxa

de retorno pode cair para, por exemplo, 7%. Se a agência reguladora necessita de 18

meses para analisar o caso e permitir um aumento de preço, a firma sofrerá uma

punição por sua ineficiência. Deste modo, o lag regulatório atua como uma forma de

premiar (punir) a firma como resultado de sua eficiência (ineficiência), mesmo quando

o lucro da firma é garantido ex-ante.

Price Caps como incentivos à eficiência. Uma inovação regulatória desenhada para

prevenir lucros de monopólio enquanto incentivos são oferecidos para a firma melhorar

sua eficiência produtiva estão sendo usados em vários países (por exemplo, para

eletricidade, telefonia e serviços aéreos na Inglaterra, e telefonia nos EUA). A idéia

básica foi retirada do incentivo gerado pelo lag regulatório.

Prof. Paulo A. de Britto Notas Para o Curso STFC/SCM

Sob este, o regulador fixa um teto para os preços (chamado de price caps) de firmas

reguladas. Todavia, os price caps (que são medidos em valores reais, ajustados pela

inflação) são reduzidos a cada ano a uma taxa baseada na taxa de redução dos custos

(crescimento da produtividade) obtida pela própria firma no passado. Assim, se a firma

regulada demonstra reduções subseqüentes em seus custos (via inovação ou outros

métodos) maiores do que os obtidos no passado, o custo real da firma irá se reduzir

mais rapidamente do que seus preços e a firma poderá manter seus lucros com uma

forma de recompensa.

É claro que nem tudo é tão simples assim para a firma: se a firma reduz seus custos em

apenas 2% após ter o reduzido em 3% ao ano no passado, o price cap irá se reduzir em

3%. A firma irá sofrer perdas, mas os consumidores continuarão a ser beneficiados pela

queda real nos preços.

Assim, sob este sistema de regulação dos preços, o gerenciamento da firma regulada é

forçado a perseguir continuamente formas mais econômicas de produzir o bem. Note,

finalmente, que este método deixa a possibilidade de lucros elevados para a firma como

uma forma de incentivo para eficiência. Mas ele também protege os consumidores via

controle dos preços, tornando-os menores em termos reais ao longo do tempo.

Regulação em Telecomunicações – Professor: César Mattos ([email protected]) A interconexão talvez seja a questão regulatória mais importante das telecomunicações. E sua importância deriva de uma característica crucial do setor: A presença de externalidades no consumo. Para entender melhor esse conceito econômico, já fazendo a conexão com importância da interconexão como arma competitiva na história da AT&T nos EUA, cabe a seguinte citação: “O valor do serviço telefônico a um usuário é diretamente relacionado ao número de outros usuários ligados ao sistema; quanto mais usuários um sistema tiver, maior o número de pessoas que um dado consumidor poderá ligar. Como as chamadas constituem a fonte de demanda por serviço, o número de pessoas com as quais se pode falar determina o valor do serviço. O sistema Bell era o maior e, portento, poderia ofertar o maior número de pessoas com as quais um usuário prospectivo poderia conversar. Negando interconexão aos seus competidores-isto é, uma conexão entre dois sistemas telefônicos que permitissem que os usuários de um sistema pudessem se comunicar com os de outro – a Bell se tornava capaz de usar seu tamanho como uma arma competitiva”. A seguinte citação de Viscusi, Vernon e Harrington (1995) demonstra o quanto a AT&T evitou a interconexão como estratégia anticompetitiva e como isso gerou a necessidade de intervenção governamental: Viscusi, Vernon and Harrington (1995):“A resposta inicial da AT&T à entrada da MCI em 1969 foi simplesmente recusar a interconexão com a empresa. Na decisão da FCC em 1971, o órgão determinou que a AT&T deveria interconectar com seus concorrentes, mas os termos foram deixados abertos à empresa. Isso não melhorou a situação, tendo em vista que a AT&T impôs consideráveis restrições às empresas concorrentes de longa distância. Apenas em 1974, a FCC determinou interconecção em sua decisão “Bell System Tariff Offering”. Quando a MCI expandiu a entrada no serviço de mensagens, o mesmo problema ocorreu. Sua entrada foi aprovada pela Corte de Apelações Americana em 1975, mas apenas em 1978 a AT&T foi forçada a interconectar com o serviço “Execunet” da MCI.Apenas em firmas como a MCI foram autorizadas a interconectar com as companhias operacionais locais como linhas de longa distância. Mesmo depois de obter esse direito, os concorrentes da AT&T no mercado de telecomunicações interurbano ainda não estavam sendo tratados de forma equânime. Acredita-se, em geral, que os concorrentes da AT&T detinham conexões de qualidade piores pelas companhias operacionais Bell. Enquanto os usuário da AT&T tinham que digitar apenas 11 dígitos para fazer a conexão com a longa distância, os clientes da MCI tinham que discar 20 dígitos. O resultado foi que os consumidores tinham a AT&T como oferecendo um serviço de melhor qualidade, o que forçava os seus concrrentes a oferecer um bom desconto para competir. Este foi o tipo de comportamento que levou a caso original de antitruste contra a AT&T.” No entanto, isso não implica ser um grande consenso a necessidade de intervenção estatal na interconexão. Muller (1997), por exemplo, realça que uma política ativa de interconexão gera excessiva padronização de tecnologias, evitando uma saudável competição entre alternativas. Ademais, o autor refuta o argumento de fechamento de mercado. O grande problema da crítica de Mueller é não reconhecer que concorrência em inovações é um processo de longo prazo e interconexão é uma condição necessária para o entrante se engajar nessa competição no curto prazo.

Uma visão intermediária é dada por Katz, Rosston e Anspacher (1995), requerendo para uma política ativa de interconexão uma análise similar à “regra da razão” do antitruste. Daí, haveria uma análise em dois estágios: •Primeiro Estágio : Avaliação do Poder de Mercado da Operadora. Se for pequeno, regulador não intervém. •Segundo Estágio: Se poder de mercado não for pequeno, cabe avaliar se benefício da intervenção compensa custos de construção e operação de infraestrutura de interconexão, restrições no design e planejamento na rede das operadoras, assimetria de informação provável do regulador, etc... Concretamente , a Federal Communications Commission (FCC) não obrigou interconexão entre provedores de telefonia móvel pois o mercado relevante foi definido como o de “terminação de chamadas”. Como apenas um pequeno percentual do total de chamadas terminava em um celular, a FCC entendeu que as operadoras de celular não detinham poder de mercado. Isso se derivou em boa parte do fato que nos EUA o sistema atribui a obrigação de pagar a conexão para as recebedoras de chamadas para celular e não para quem liga. Facilita entrada evitando venda casada de elementos desnecessários da rede; b) Auxilia o concorrente a realizar uma aproximação gradual do usuário, sem a necessidade de pesados investimentos iniciais na infraestrutura do local loop. De outro lado, também possui desvantagens: a) a entrada é dependente do incumbente, o que torna ambos menos aguerridos na concorrência; b)Pode desestimular investimentos (ex: TV a cabo nos EUA); c) a venda casada pode gerar eficiências. Um fenômeno que deve ser considerado na precificação de acesso se refere ao chamado “cream-skimming”. Nesse caso, os entrantes apenas entram nos mercados mais interessantes financeirament, deixando o que é menos lucrativo, especialmente o que contém obrigações de serviço universal para os incumbentes. Os Modelos de Precificação Ótima mais relevantes (Laffont e Tirole-1993) indicam que preço de acesso ótimo deve levar em consideração a erosão da base de financiamento do custo fixo do dono da rede quando o entrante está praticando “cream-skimming”. Quanto maior o cream-skimming, roubando mercados lucrativos do incumbente, maior deve ser o preço de acesso. •Quanto maior o preço de acesso requerido para financiar custos fixos, maior a possibilidade de bypass por parte do entrante, escolhendo formas alternativas menos eficientes, mas financeiramente atraentes de obter acesso. A questão relevante é como estruturar um mecanismo baseado no preço de acesso que ao mesmo tempo que financie o custo fixo, induza o entrante a escolher a alternativa de acesso mais eficiente do incumbente. Uma alternativa teórica seria desvincular o financiamento do custo fixo do preço marginal de acesso. Isso poderia ser obtido, reduzindo o preço de acesso a um nível próximo do custo marginal enquanto se cobra uma taxa do entrante sobre seu serviço final a ser transferida ao incumbente. Nesse caso, não há bypass ineficiente pois se quebra a relação entre o uso do insumo e seu preço, além do custo fixo poder ser devidamente financiado.O problema é que essa não é uma alternativa juridicamente viável. A Lei Geral de Telecomunicações e os contratos de concessão contêm uma série de dispositivos relacionados a tarifas. Previu-se a possibilidade de eliminação dos controles de tarifas após 3 anos do início do contrato (meados de 2001), o que configurou uma hipótese que nem sequer foi cogitada naquele momento. Como é usual em vários contratos de

concessão, previu-se a possibilidade de alteração dos reajustes em face de fatores exógenos que possam trazer problemas ao equilíbrio econômico-financeiro da empresa. Em consonância com o propósito de desindexação da economia, o intervalo mínimo entre revisões tarifárias foi definida como de 1 ano.

A principal regra de tarifas, no entanto, definida em contrato é a que estabeleceu o reajuste baseado no price-cap, substituindo a regulação por taxa de retorno, tal como se procedeu no Reino Unido e em boa parte dos EUA. Naquele primeiro país a regra ficou8 conhecida como do RPI (Retail Price Index) – X (Estimativa do Aumento da Produtividade do Setor). Seus principais aspectos positivos são: a) simplicidade; b) incentivo total ao aumento da produtividade, dado que a firma é o “reclamante residual” (residual claimant) de suas economias de custos; c) riscos de aumentos exógenos nos custos transferidos do consumidor para a firma; d) eliminação da tendência à realocação de custos contábeis e R&D.

Uma questão relevante é de se o price-cap gera, de fato, preços menores ou não? A resposta é certamente sim no longo prazo pelo estímulo à produtividade e provável repasse dessa aos consumidores na forma de preços menores. No curto prazo, essa assertiva também será verdadeira se houver informação perfeita do regulador sobre quanto o operador é capaz de reduzir seus custo. Como essa é uma hipótese forte, teremos que a capacidade de o price-cap reduzir preços no curto prazo será tanto maior quanto menor for a assimetria de informação do regulador em relação à firma.

No caso brasileiro, não foi escolhido um único fator X para ser aplicado durante a

fase de transição do modelo (1998-2005). Para cada ano, eram definidos diferentes valores de X, sendo que quanto mais distante do início do período, maior o valor de X. Foram definidos caps diferenciados para os serviços local, longa-distância e de interconexão e, dentro desses, foram definidos caps específicos sobre faixas desses serviços e/ou “partes” da tarifa (fixa ou variável), como ficará claro adiante, e caps mais gerais sobre médias ponderadas dos preços dessas mesmas faixas. O intervalo mínimo de tempo entre reajustes é de um ano, podendo ser requerido tanto pela operadora como pela ANATEL.

Vejamos, primeiramente, o caso dos serviços locais. Os contratos de concessão

estabelecem que a operadora deve ofertar a todos os seus usuários o “Plano de Serviço Básico Local” (PSBL). O PSBL estabelece valores máximos para várias tarifas tais como a habilitação e a assinatura mensal, que constituem a parte “fixa” da tarifa dos telefones individuais, e o pulso, que constitui a parte variável da tarifa dos telefones individuais, além de definir o cap da tarifa de telefone público, o método de tarifação e as chamadas para telefones móveis. A operadora pode ofertar planos alternativos para os usuários, desde que previamente sancionados pela ANATEL e que p PSBL seja também oferecido para o usuário.

Há um cap mais geral e agregado que compreende a tarifa de habilitação

(HAB), a assinatura mensal, (ASS) e o preço variável das chamadas (P-valor do pulso * nto- número médio de pulsos da última revisão até o presente-) denotando um esquema de preços não linear e caps específicos para cada um desses componentes. No caso dos pulsos, o primeiro minuto e os minutos subsequentes possuem caps diferenciados. Esse conjunto de components tarifários é chamado de a cesta básica local. O cap geral é dado por:

( ) )*(**1* tototototo

tttott PAssHAB

DIIGPDIIGP

kPAssHAB ηη ++⎟⎟⎠

⎞⎜⎜⎝

⎛−−

−≤++

sendo k o fator X do price-cap brasileiro. O valor de X nesse cap global foi fixado

em 0% até dezembro de 2000 e 1% até dezembro de 2005. Há também 7 caps parciais, três para a habilitação e três para a assinatura, compreendendo residencial, não-residencial e truncking. O sétimo cap específico é o valor do pulso, P. Todos esses caps específicos possuem o mesmo fator específico X de 9%, sendo que a mesma fórmula geral para os sete caps, exemplificada, pelo cap da habilitação residencial (HABRes) é:

⎟⎟⎠

⎞⎜⎜⎝

⎛−−

≤to

ttot DIIGP

DIIGPsHABsHAB *09.1*ReRe

No caso da longa distância, há também dois conjuntos de caps. Primeiro, o conjunto

de um único elemento que é uma média ponderada de vários grupos de distâncias/dias/horas:

( ) ( )⎥⎥⎦

⎢⎢⎣

⎡⎟⎟⎠

⎞⎜⎜⎝

⎛−−

−≤⎥⎥⎦

⎢⎢⎣

⎡⎟⎟⎠

⎞⎜⎜⎝

⎛∑∑∑∑= ===

5

1

24

1

24

1

5

1***1*

i

ijto

jijto

to

t

t

ijto

jijt

i MtM

TDIIGPDIIGP

kM

MT

Segundo, há 120 caps específicos definidos para grupos de dias/horas e distâncias,

com a seguinte fórmula geral:

⎟⎟⎠

⎞⎜⎜⎝

⎛−−

≤to

tijtoijt DIIGP

DIIGPTT *05.1*

onde Tijt e Tijto – tarifas máxima e corrente, respectivamente, do Plano do Serviço Básico

da Longa Distância Nacional para o dia/hora “j” e grupo de distância “i”. Mijto - minutos do serviço de longa distância nacional observado no Plano Básico do

Serviço de Longa Distância de acordo com os dias (dias úteis, feriados, fins de semana) e horas do dia e no grupo de distâncias “i” desde a última revisão.

MT - total de minutos do serviço de longa distância nacional observado desde a última revisão.

Uma tabela consolidando os fatores X no Brasil entre 1999 e 2005 para os

consumidores finais é apresentada abaixo: Tabela – Fatores Anuais de Redução Real nas Tarifas do Sistema de Telefonia

Fixa no Brasil (ou os Fatores X dos Price Cap Agregados e Específicos)– 1999/2005 Serviços 1999 2000 2001 2003 2005

X do Cap Agregado da Cesta Básica Local (equação 2)

0 0 1 1 1

X dos Caps específicos da Cesta Básica Local (7 caps tal como exemplificado pela equação 3 )

-9 -9 -9 -9 -9

X do Cap Agregado do Serviço Interurbano Nacional (equação 4)

2 2 4 4 5

X dos Caps específicos do Serviço interurbano (120 caps tal como exemplificado na equação 5)

-5 -5 -5 -5 -5

X do Cap agregado dos serviços internacionais

5 15 15 15 15

X dos Caps específicos do serviço internacional para cada grupo de países

-5 -5 -5 -5 -5

Fonte: ANATEL Note que os fatores X dos serviços internacionais apresentam a queda mais

pronunciada, seguida do serviço de longa distância nacional e da cesta do serviço local. Esse padrão se deriva de dois fatores:

1) O regulador acredita que o rebalanceamento tarifário no Brasil não havia sido

ainda completado no momento da privatização em 1998; 2) É possível que a perspectiva de introdução de cabos de fibra ótica no serviço de

longa distância nacional seria tão abrangente que implicaria um aumento muito rápido da produtividade (pelo menos maior que o serviço local). A maior concorrência naturalmente esperada na longa distância contribuiria ainda para estimular esse salto de produtividade maior na longa distância.

Finalmente, note-se que os valores de X passam a aumentar de forma ainda mais

forte quando se projetava o início da política de livre entrada que se iniciaria em 2001.

Há dois problemas fundamentais no price-cap: 1) falta de “commitment” face aos elevados lucros auferidos (ex. da energia elétrica em 1995 e telecomunicações em 1991 no Reino Unido), o que depende das dotações institucionais do país (poder judiciário, consensos sobre economia de mercado e trade-offs sobre o price cap); 2) •na presença de assimetria de informação, o ótimo é uma mistura entre incentivos de alto e baixo poder como em Laffont e Tirole (1993) para fazer face ao trade-off extração de renda/incentivos. Recentemente, o Governo tem proposto a introdução da metodologia do Long run Incremental Cost (LRIC) para as tarifas de interconexão. A idéia do LRIC é fixar os preços de acesso com base em um benchmark de preço eficiente ao invés de se basear nos custos (embedded-enterrados) atuais. Isso evita a ineficiência do regime que liga custos atuais com preços e estimula redução de custos e, portanto, eficiência estática. Constitui a principal prática internacional (TELRIC nos EUA, FL-LRAIC na Europa e LRIC no Japão), mas sofre pesadas críticas.

Primeiro, não obedece princípios econômicos básicos pois com custos fixos elevados nenhum operador estará incentivado a investir com essa regra. Tende a ser confiscatório dado o passo de desenvolvimento tecnológico do segmento e o elevado período de vida dos equipamentos. A previsão da taxa de progresso tecnológico se torna fundamental neste contexto. Segundo, aumenta o incentivo a fechar mercado para a

entrantes por via de métodos fora preço (qualidade da interconexão), aumentando necessidade de maior interferência regulatória. Terceiro, há grande dificuldade de computar custos marginais aumenta necessidade de interferência regulatória, o que amplia possibilidade de ação discricionária, minando incentivos. Quarto, •Laffont e Tirole (2000) mostram que a perspectiva de inovação torna desejável um subsídio cruzado intertemporal com lucros mais altos antes da inovação que vão compensar lucros mais baixos após a inovação. Enfim, há dificuldades relevantes na aplicação da regra tais como: 1) O que é o longo prazo em um setor dinâmico como telecom? 2) •Sobre qual volume os custos incrementais devem ser medidos? 3) Qual é a função custo em um monopólio quando este é ineficiente? 4)•O que está incluído nos custos dado o incentivo de mover custos das linhas de negócio não reguladas para as não reguladas? 5) Como tratar os custos comuns? 6) O custo de oportunidade entra no custo marginal ou não?

No que diz respeito ao financiamento do serviço universal no Brasil, o principal

ponto se refere à refutação do uso do esquema de subsídios cruzados interno às firmas via distorção de preços relativos no longo prazo. A principal fonte de financiamento da Lei do FUST é uma taxa de 1% sobre a receita bruta de todos os setores de telecomunicações, o que configura um subsídio cruzado externo às firmas. O sistema de “leilão de subsídios para serviço universal” é uma boa idéia, evitando discricionariedade do regulador (Ver Laffont e Tirole 2000 e Sorana 2000), sendo que o Regulamento de Implementação da Aplicação dos Recursos do FUST de 2001 baseia o critério em leilões fechados (menor lance), tal como previsto na Lei 8666, mas há casos onde a licitação pode ser evitada e a ANATEL escolher o operador.

SISTEMA DE TELEFONIA FIXA COMUTADA: TECNOLOGIAS

Leonardo Rodrigues Araújo Xavier de Menezes

Professor do Departamento de Engenharia Elétrica

Introdução

O Objetivo deste texto é mostrar o sistema público de telefonia fixa comutada em

conjunto com os seus principais elementos e as tecnologias envolvidas no seu

funcionamento. Para atingir este objetivo existem diversos caminhos que podem ser

seguido. O caminho adotado aqui é um pouco diferente. Ao invés de introduzir as escolhas

tecnológicas e as idéias envolvidas no sistema como se externas ao processo de evolução, o

caminho escolhido foi o de introduzir a evolução do sistema público de telefonia fixa

comutada, doravante mencionado como STFC, dentro do seu contexto histórico. A razão é

que sob este prisma, permite-se entender quais foram as escolhas tecnológicas que

definiram a forma do sistema como ele se apresenta hoje, bem como os caminhos que

foram percorridos para tanto. Para entender o mundo das telecomunicações hoje é

necessário entender seu passado. É possível que com esta compreensão que seja factível

imaginar um pouco sobre seu futuro.

A criação do telefone

A palavra telefonia vem do grego Tele (distância) em conjunto com Phonos (voz).

Em uma tradução direta significa voz à distância. Portanto, a telefonia pode ser entendida

como o processo de realização da conversação entre duas ou mais parte, tendo como

característica básica a separação física entre as mesmas. Para os propósitos já delineados

anteriormente na introdução deste texto, a telefonia consiste no estudo dos equipamentos e

técnicas envolvidos na realização da conexão telefônica. O objeto principal do sistema

telefônico, pelo menos no seu início, é o telefone. Este consiste em um dispositivo que

envia a voz através de um meio físico por meio da conversão da mesma em sinais elétricos.

Antes do telefone surgir existiam outros meios para se realizar a comunicação a

distância. O meio mais difundido no século IXX era o telegráfo. Este dispositivo enviava

sinais codificados à distância ao invés da própria voz. A palavra telegráfo vem do grego

Tele (distância) em conjunto com Graphos (escrita). O princípio básico do telegráfo foi

mostrado em 1825 pelo professor Joseph Henry em uma aula na Academia de Albany

(EUA). Nesta aula, o professor utilizava a variação da corrente elétrica em um circuito para

tocar sinos através de eletromagnetos. O circuito se baseava nas idéias do eletromagnetismo

em estudo na época que mostravam que uma variação na corrente elétrica em um caminho

fechado de corrente criavam um fluxo magnético. Este fluxo magnético apresentava a

capacidade de mover objetos com magnetismo permanente (tais como agulhas de bússolas).

Com base neste princípios, já que a variação de corrente produz um efeito quantitativo

observável, Samuel Morse cria o telégrafo elétrico em 1837. Nesta criação juntam-se os

conceitos dos efeitos que uma variação de corrente causa com um mapeamento entre o

alfabeto de escrita (A,B, C, D, E, etc...) e os efeitos observáveis da variação da corrente

elétrica (rápida e lenta).

Figura 1 - O conceito do circuito envolvido no telégrafo. O circuito consistia de duas chaves, dois elementos

produtores de som e um bateria. Quando as chaves eram operadas os elementos produtores de sons

funcionavam indicando o símbolo que foi transmitido.

O conceito desta idéia obteve bastante sucesso. Em 24 de maio de 1844, o telégrafo

teve sua primeira linha inaugurada nos Estados Unidos. Mas o sucesso não foi restrito ao

novo mundo, em 17 de agosto de1850 a Europa passou a utilizar cabos submarinos entre

Dover (Inglaterra) e Calais (França) para ligações telegráficas. A introdução do telégrafo

levou a humanidade a uma nova era de comunicações. Pode-se sem sombra de dúvida

afirmar que o mundo passou a se tornar um lugar menor com sua introdução. Eventos que

ocorriam em lugares distantes passaram a ser relatados em questão de dias ao invés de

meses. As nações do mundo passaram a se comunicar com muito mais frequência e em

maior volume. No entanto a introdução do telégrafo em uma escala global demandou a

criação do primeiro orgão regulador de telecomunicações do mundo. Em 17 de maio de

1865, foi fundada a União Telegráfica Internacional (UTI) em Paris, França. Este orgão foi

promovido nos anos 30 para a União Internacional de Telecomunicações (UIT) com sede

em Genebra, Suiça. O único senão do telégrafo era que a maioria das pessoas não podia

utiliza-lo. E isto naturalmente era um obstáculo para que este se torna-se um meio de

comunicação verdadeiramente universal.

Um problema natural por trás do telégrafo, é que para opera-lo era necessário saber

o código por trás do envio do alfabeto natural das pessoas. Portanto, era necessário saber

telegrafia. Ao contrário do telégrafo, a transmissão da voz era o modo mais natural de

comunicação. Este era um método que iria ser, sem sombra de dúvida, bastante popular e

realmente universal. Por este motivo enquanto em 1861 o Estados Unidos ligavam o litoral

leste com o oeste através do telégrafo, pesquisadores e empreendedores buscavam formas

de transmitir sinais mais complexos através de fios elétricos. Neste ano, o professor alemão

Phillip Reis realiza as primeiras transmissões de sinais musicais através de fios.

Esta pesquisa avançou bastante. Apesar de transmitir sinais musicais ser

interessante, o objetivo principal era a transmissão de sinais de voz. Afinal, somente a voz

poderia trazer o caráter de comunicação universal. Em 1871, o italiano Antônio Meucci

patenteia o que pode ser considerado a primeira versão do telefone. O aparelho consiste

“num diafragma vibrante e de um magneto eletrizado por um fio espiral que o envolve.

Quando o diafragma vibra...modifica a corrente do magneto...Esta modificação da

corrente, transmite-se ao outro fio e vai imprimir análoga vibração ao diafragma que a

recebe e que, desse modo, reproduz a palavra”. Antônio Meucci é considerado por alguns

como o verdadeiro inventor do telefone, no entanto não existe patente em seu nome, apenas

Registros e Renovações no Escritório de Patentes dos Estados Unidos, até 1873. De

qualquer modo, este dispositivo tem notável similaridade com o telefone que seria

patenteado alguns anos mais tarde.

A corrida que o mundo conheceu se deu entre duas pessoas diferentes. Uma delas

persistia a busca pela transformação de voz em sinais elétricos do ponto de vista elétrico. A

outra, que havia sido professor de surdo-mudos, buscava o mesmo objetivo do ponto de

vista acústico. Em 1875, Elisha Gray e Alexander Graham Bell descobrem que estão

trabalhando no mesmo projeto: a invenção do telefone. Enquanto Bell buscava solução pelo

lado acústico, Gray buscava pela aplicação da corrente elétrica. Em 1874, Gray concluiu

seu projeto mais extraordinário: com um diafragma de aço diante de um eletroimã, havia

construído um receptor praticamente igual aos dos telefones atuais. Mas não dispunha de

transmissor. Em 14 de fevereiro de 1876, por extrema coincidência, os dois ingressam com

o pedido de patente. Com apenas uma vantagem para Bell: seu requerimento chegara ao

U.S. Patent Office duas horas antes de Gray. Até aqui ninguém havia conseguido realmente

conversar pelo telefone. Gray parece perder as esperanças e considera-se derrotado pela

diferença de duas horas na primazia do registro. Embora tivesse excelentes idéias e

estivesse no caminho certo, nada faz para desenvolver os projetos que elaborou. E perde

assim, a corrida nos anos críticos que se seguem.. Em 7 de março de 1876, Alexander

Graham Bell obtém a patente nº 174.465, de invenção do telefone. Três dias depois,

acidentalmente, Bell e Watson conseguem a transmissão da primeira frase completa por

telefone (“Mr. Watson, come here, I need you”). A 25 de junho desse ano, o imperador do

Brasil, Dom Pedro II, visitando a Exposição de Filadélfia, exclama diante do telefone de

Graham Bell: “Meu Deus, isto fala!”. Deste ponto em diante, o processo de popularização

do telefone se acelerou. A 12 de fevereiro de 1877 é transmitida, por telefone, a primeira

reportagem para um jornal (o repórter Henry Batchlder, entrevista Graham Bell, em Salem

para o Daily Globe, de Boston).

O telefone de Alexander Graham Bell é baseado em um príncipio elétrico bem

conhecido. Este princípio é a chamada Lei de Ohm. A corrente em um circuito resistivo é

diretamente proporcional a tensão aplicada. A constante de proporcionalidade é chamada de

condutância elétrica (G). O inverso desta constante de proporcionalidade é chamada de

resistência (R). O que Bell conseguir realizar foi um componente com a seguinte

propriedade:

- A condutância elétrica do dispositivo era diretamente proporcional a pressão

acústica aplicada. Como a pressão acústica é proporcional a voz, então a

corrente que atravessa o elemento será diretamente proporcional a voz que é

falada sobre o dispositivo.

- Se em outra extremidade do circuito temos um dispositivo que é capaz de vibrar

um diafragma através do uso de um eletroimã, teremos um aparelho que

converterá o sinal elétrico em vibração acústica (sinal de voz). No eletroimã,

quanto maior a corrente, maior é a força magnética sobre o diafragma, portanto

maior a pressão acústica gerada.

Em termos matemáticos:

DCDCDC gVtpVtpG

tpRV

ti )())(())((

)( ===

No caso do aparelho de Graham Bell, a modificação da resistência do fio era

realizada por um fio que mergulhava em ácido, quanto mais o fio mergulhava em ácido

maior era a condutância elétrica (portanto maior a corrente).

entre o

sobr

em sin

destac

Portan

justam

famos

nos te

microf

próxim

é gran

pequen

de mo

Figura 2 – O

os dois termina

re o diafragma

Desta form

nais elétrico

car que o el

nto, apresent

mente por ca

a frase “Mr.

Em 1878, H

elefones. Th

fone é base

mos depende

nde, os grão

na os grãos

do similar a

O telefone de G

ais de saída de e

a, então a corren

ma o disposit

os. Entretant

lemento con

tava um prob

ausa do ácid

Watson, com

Hughes inve

homas Edis

ado na com

endo da pres

os se tornam

se tornam m

o de Bell, co

Graham Bell, qu

eletricidade. C

nte elétrica de

tivo de Bell

to, este esqu

nversor de s

blema de seg

do ter sido

me here, I n

enta o micro

son aperfeiç

mpressão de

ssão de voz a

m mais próx

mais separad

om a vantage

uanto mais o fi

Como o afundam

saída era prop

conseguia tr

uema tinha a

inais de voz

gurança para

derramado

eed you” foi

ofone de carv

çoa ainda n

grãos de ca

aplicada sob

ximos (condu

dos (condutân

em adiciona

io afundava no

mento do fio er

orcional a voz

ransformar e

alguns probl

z em sinais

a seu uso. Um

em Bell em

i dita.

vão, cujo pri

nesse mesm

arvão que s

bre eles. Dest

utância mai

ncia menor)

l de maior se

o ácido maior e

ra definido pel

aplicada sobre

efetivamente

lemas. Entre

elétricos u

m caso aned

m um exper

incípio é util

mo ano o r

se tornam m

ta forma qua

or) e quand

). Este micro

egurança.

era a condutânc

la pressão de vo

e o diafragma.

e sinais de v

e eles pode-

utilizava ácid

dótico é que f

rimento que

lizado até ho

receptor. Es

mais ou men

ando a press

do a pressão

ofone funcio

cia

oz

voz

-se

do.

foi

e a

oje

ste

nos

são

o é

ona

Figura 3 – O microfone de carvão aperfeiçoado por Thomas Edison e o conceito da condutância

variável envolvido em seu funcionamento. A medida que os grãos de carvão se tornam mais próximos ou

separados, a condutância aumenta ou diminui.

O nascimento da companhia Telefônica

A partir deste ponto começou a surgir um dos gigantes de telecomunicações. Em

1877, Bell, Sanders & Hubbard, formam a primeira companhia telefônica Bell. Contra

todas as criticas Hubbard decide licenciar franquias ao invés de vender telefones. Esta

decisão tornou a Bell forte por mais de 100 anos. A razão da existência da companhia

telefônica esta mais ligada ao problema de como conectar os telefones do que a sua venda.

Afinal um telefone não adianta muito, é necessário que sejam realizadas as conexões. E

justamente a questão da conexão é que permitiu o avanço das telecomunicações no século

XX. Para entender a importância da conexão, é necessário perceber que para se comunicar

utilizando o telefone é necessário que os mesmos estejam ligados por um par de fios (a

primeira vista dois pares, mas este ponto será delineado mais afrente). Portanto, se temos

dois telefones precisamos de um par de fios. Mas o que acontece quando há mais telefones

envolvidos? Bem, é fácil ver que a progressão rapidamente seja a valores assombrosos.

Para três telefones ligados diretamente são necessários três pares, para quatro telefones são

necessários seis pares. A medida que aumentamos o número de telefones ligados

diretamente, o número de pares de fios necessários para liga-los cresce bastante.

Na realidade, utilizando expressões matemáticas de soma este número de pares de

fio (L) cresce como número de conexões (N) como:

2)1( −

=NNL

Portanto não é prático conectar todos os assinantes diretamente. A solução mais

prática é conectá-los de modo centralizado. Neste caso o número de pares de fio (L) é igual

ao número de conexões (N).

cresc

fique r

centr

Figura 4 –

ce quadraticam

A diferenç

Figura 5 –

responsável pe

ralização dimin

O Caso da con

mente. Mas se fo

a entre estes

Os dois tipos

ela conexão, ma

nui o número d

nexão, se forem

orem utilizadas

s dois tipos d

de abordagem.

as ao mesmo te

de conexões, m

m utilizadas as

s conexões com

de conexão p

. A conexão di

empo demanda

mas demanda um

ligações.

conexões diret

mutadas, este n

podem ser vi

reta elimina a n

a um alto núme

m orgão que re

tas, o número d

número cresce

istas na figur

necessidade de

ero de ligações

ealize o papel d

de pares de fio

de modo linear

ra 5.

e um orgão que

s. Ao contrário

de conector das

s

r

e

a

s

Desta forma a abordagem adotada tornou as centrais de conexão, que passaram a ser

chamadas de centrais de comutação, como elemento responsável pela ligação telefônica. A

comutação é definida desta forma como o processo de ligação da chamada telefônica. Esta

é a principal responsabilidade da companhia telefônica, ou como hoje é mais conhecida da

operadora telefônica.

Com a adoção deste formato, surgiu a operadora de telefonia e os elementos que

conhecemos hoje como parte do sistema telefônico:

- Residência de origem

- Acesso de origem (ou rede de acesso – rede local)

- Central local (CO)

- Troncos de ligação (ou rede de transporte)

- Central de destino (CO)

- Acesso de destino

- Residência de destino

No entanto, nos idos de 1878, a conexão entre os telefones (a central local e a de

destino) necessitava ser realizada de modo manual. Para tanto, criou-se a posição da

operadora do sistema. Esta também era conhecida como telefonista. Seu trabalho era

conectar os assinantes locais ao terminal de destino. Por este motivo seu trabalho era duplo.

Quando os assinantes locais desejavam se conectar a outros assinantes locais, a

telefonista realizava esta conexão diretamente na mesa telefônica (switchboard). Era

responsabilidade da telefonista avisar aos assinantes que iriam receber a ligação da

ocorrência da mesma. Para resolver o problema de como os assinantes deveriam ser

avisados, Thomas Watson cria a campainha telefônica em 1878. O primeiro sistema

adotado era do tipo bateria local, onde a fonte de alimentação (pilha) era acondicionada no

próprio equipamento (mesa operadora e aparelho telefônico), ou muito próximo dele. Nessa

época, junto ao equipamento ficava uma manivela (crank) que fazia parte de um conjunto

denominado magneto, que deu nome a este sistema. Para fazer uma ligação, o usuário

girava a manivela do telefone, gerando corrente elétrica alternada, fazendo acionar o alarme

na mesa operadora. A telefonista atendia colocando a pega (cordão) no orifício (jack)

assinalado. A chamada era completada com a outra pega correspondente no orifício

solicitado. A telefonista então, girava a manivela da mesa e, no telefone chamado, a

campainha tocava.

Figura 6 – Mesa telefônica da telefonista. Note a manivela no canto direito da mesa utilizada para

alertar os assinantes através da campainha telefônica.

A Segunda parte do trabalho da telefonista estava relacionada com os momentos

que os assinantes locais queriam se comunicar com telefones a distâncias maiores. Neste

caso, cabia a telefonista iniciar todo o processo de comunicação com a central local do

assinante de destino para realizar a conexão do sistema.

Inicialmente, os primeiros telefones utilizavam o mesmo bocal para falar e escutar.

Mas como os assinantes ficaram confusos, este foi substituído por um modelo de dois

bocais separados (pai do que conhecemos hoje). Em 28 de janeiro de 1878 começa a operar

a primeira mesa telefônica comercial em New Haven. Esta servia a 21 telefones com 8

linhas. Em 17 de fevereiro a Western Union abre a primeira grande central telefonica em

San Francisco. Nascia a rede de telefonia pública comutada (RTPC).

No germe do início do sistema telefônico já estavam plantadas as sementes que

demandariam a inovação como marca característica do sistema. Note que em breve se

tornaria patente que existiam três fatores que implicavam na alteração do modo como a

comutação era realizado.

1. Era economicamente inviável o aumento indefinido de telefonistas em grandes

centros urbanos

2. Era economicamente inviável a manutenção de telefonistas em pequenos centros

urbanos dentro de cargas horárias ininterruptas (24 hs)

3. A expansão do sistema era contrabalançada pelos fatores trabalhistas das

telefonistas

Estas demandas iriam finalmente se materializar na criação da central de comutação

automática algumas décadas mais tarde.

Em 1879 no Brasil, o imperador Dom Pedro II autoriza o funcionamento da

primeira “Companhia Telephonica Brasileira”. Começam a funcionar os primeiros

telefones do Rio de Janeiro. Estes tinham especificamente a funcionalidade de ligar

Petrópolis ao Paço Imperial no Rio de Janeiro.

Nos Estados Unidos, em 1888, a Bell Telephone Company capitaneava 133000

telefones. Neste mesmo ano, Bell ganha a patente do circuito metálico (dois fios por

telefone). Anteriormente, só um fio saia do telefone, sendo o retorno realizado por um fio

terra ( o que gerava muito ruído). Isto começou a tornar possível a transmissão de longa

distancia. Originalmente são necessários dois pares de fio para comunicação entre

telefones. Um dos pares é necessário para transmitir e o outro para receber. Alguns anos

antes foi verificado que o circuito a dois pares poderia ser reduzido para o circuito com

apenas um par, se nos aparelhos telefônicos fosse introduzido um circuito de conversão de

quatro para dois fios. Este circuito é conhecido como híbrida. Entretanto, as pessoas

pensarão que poderiam simplificar o problema mais ainda se utilizassem a terra como

retorno da corrente. O problema é que esta parte do retorno de corrente introduzia muito

ruído na conversação. Com a mudança para o par metálico, este ruído diminuiu e a ligação

telefônica passou a cobrir maiores distâncias. Ainda neste ponto, a ligação intercontinental

de telefones ainda era impraticável.

Nos anos de 1882 a 1884, o Brasil passou a se integrar com maior presença no

sistema telefônico. Em 1882, a cidade do Rio de Janeiro já conta com mais de 300

telefones. No ano seguinte foi instalada por Walter Hemsley, com 75 assinantes a primeira

estação telefônica na cidade de Santos, talvez a primeira do Estado de São Paulo. Em 1884,

começam a funcionar os primeiros telefones na cidade em São Paulo, instalados em janeiro

desse ano por dois concessionários que se unem após uma semana de discussões.

Uma data de muita importância para o sistema telefônico é 28 de fevereiro de 1885.

Neste dia a American Telephone and Telegraph (AT&T) nasceu. O papel da AT&T era

prover conexões de longas distâncias para operadoras telefônicas locais. No entanto,

somente companhias sancionadas pela Bell poderiam ser conectadas a rede da AT&T. Em

1889, William Gray instala o primeiro telefone público do mundo, em Connecticut, no

Hartford Bank.

Um avanço particularmente importante ocorreu em 1890, prosseguindo no

aprimoramento e rapidez das ligações, as baterias foram centralizadas nas estações

telefônicas, surgindo um novo sistema o bateria central. Os aparelhos telefônicos deixam de

ter manivelas e locais para pilhas, reduzindo seu tamanho. Neste sistema, bastava o usuário

retirar o fone do gancho e a telefonista já o atendia. A ligação era completada ainda da

mesma forma, porém, para chamar o telefone pedido era acionada apenas uma chave. Com

as baterias centralizadas, perseguia-se a rapidez no acesso. Ainda no cinema do início do

século XX é comum ver telefones aonde o protagonista tem de utilizar uma manivela para

realizar uma ligação telefônica. A importância da bateria central é que como toda energia

passou a ser fornecida pela bateria na central telefônica, não existia mais necessidade para o

usuário girar uma manivela para avisar a telefonista da sua intenção de realizar a ligação.

Bastava apenas que o mesmo retirasse o fone do gancho.

A Criação da central automática de comutação

Em 1891 é criada a primeira central automática de comutação telefônica. A central

automática não foi adotada pela Bell antes de 1919. No entanto, a automatização de centrais

era o passo necessário para os problemas já mencionados anteriormente criados pela

utilização de telefonistas.

Figura 7- O problema da comutação manual. A expansão do sistema era contrabalançada pela própria

dificuldade inerente a implantação de centrais em duas frentes: questão imobiliária e questão trabalhista.

Por estes motivos pode-se afirmar que a criação de centrais automáticas foi

elemento chave na expansão do sistema telefônico. Em 1891, Almon Brown Strowger,

empresário funerário de Kansas City com grande habilidade na construção de aparelhos

elétricos e telegráficos, cria o embrião da primeira central telefônica automática comercial.

Seu objetivo era simples e claro: livrar-se da concorrência desleal de uma telefonista

de La Porte, Indiana, esposa de outro proprietário de empresa funerária, que não

completava as ligações de possíveis cliente para seu estabelecimento. A telefonista se

“equivocava” quando alguém pedia uma ligação para a funerária de Strowger. Na realidade

esta história é apócrifa, mas o fato real é que Strowger inventou a primeira central

automática de comutação

Para realizar estas tarefas a central Strowger possuía um circuito de assinante, um

seletor de linha (linefinder), um apontador (alloter), seletores de grupo e um seletor final. A

seleção e o apontamento eram realizados por movimentos verticais e horizontais. De

qualquer modo através da movimentação vertical e horizontal, era possível conectar um

telefone a outro dado telefone.

(a) (b)

(c)

Figura 8 – A idéia por trâs da central Strowger. (a) o objetivo primordial da central automática de

comutação era conectar telefones sem a intervenção de um operador humano. (b) A central Strowger realizava

isto combinando movimentos de elevação com movimentos de rotação. (c) no entanto a central completa

possuia diversos módulos baseados no mesmo princípio para realizar a comutação.

A central de Strowger era baseada em vários elementos, mas para entender quais são

estes elementos, tem-se de entender quais são as tarefas que uma central automática deve

realizar para completar uma ligação telefônica:

- Detectar que o assinante chamador tirou o fone do gancho

- Tornar ocupada a sua linha tal que ele não seja interrompido

- Reservar equipamento para o usuário se possível

- Indicar ao usuário que ele pode prosseguir com sua chamada

- Aceitar as informações para conexão do chamador e rotear a chamada de acordo

- Conectar a chamada ao assinante a ser chamado

- Retornar informação de ocupado se ocupado ou tocar campainha se livre

- Tocar a campainha e cessar de tocar quando o assinante atender

- Detectar que o assinante atendeu e registrar isto na conta do chamador

- Avisar aos engenheiros em caso de falha

O circuito de Linha de Assinante realizava a tarefa de detectar que o assinante tirou

o fone do gancho e tornava ocupada esta linha. Além disto, ele recebia o par de fios

(denominados a e b) do terminal de assinante. A estes, ele juntava mais um par de fios

(Medição e Privado) e utilizava pares de reles (denominados L e K) para realizar a função

de detectar o fluxo de corrente nos fios do assinante. O Seletor de Linha (Linefinder) e

apontador (alloter) realizavam a tarefa de reservar equipamento para o usuário se possível.

Como a central tem muitos usuários e poucos seletores, o seletor de linha procura um

seletor livre. Do mesmo modo o apontador tinha a finalidade de conectar o assinante ao

seletor de grupo. Geralmente o apontador tinha movimentos tanto de elevação quanto de

rotação (servindo de 100 a 200 assinantes). Os seletores de grupo é que efetivamente

realizavam a conexão do telefone. Cada seletor de grupo era responsável pelo tratamento de

apenas 1 dígito da ligação (determinado somente pelo movimento vertical), apenas o seletor

final era responsável por dois dígitos (tanto o movimento vertical quanto o de rotação).

Figura 9 – O seletor de Strowger. (a) a patente de 1891. (b) Foto de um seletor real. Note que o

mesmo pode realizar movimentos de elevação e rotação.

Um ponto muito importante é que com a eliminação das telefonistas em centrais

automáticas, perdeu-se a forma de comunicação mais tradicional em que o usuário avisava

a telefonista com qual assinante ele queria se conectar. Passou-se a ser necessária a

determinação de uma forma de sinalizar de modo automático a forma de proceder a ligação.

Um ponto importante é que a central automática era bastante cara. Portanto, exceto em

centros urbanos de grande volume de ligações, a disseminação deste tipo de central foi

bastante limitada.

Mas quanto a sinalização, 1896 surgiu o disco decádico que é ainda utilizado nos

dias de hoje. O sistema anterior de 1892 (criado com a central automática de Strowger)

utilizava botões. No sistema a disco: o número de pulsos do número discado informa a

central Strowger de quanto deve ser a elevação nos grupos seletores e a elevação e rotação

no estágio final. Esta informação era transmitida através de pulsos. Se a sequência de

pulsos 123 fosse transmitida, significava que o telefone iria emitir um pulso, em seguida

dois pulsos e finalmente três pulsos. Esta mesma sinalização pode ser realizada através do

gancho do telefone. Por este motivo, o uso de cadeados em discos decádicos nunca

realmente impediu alguém de realizar uma ligação telefônica.

Esta transmissão de dados tem o objetivo de informar ou sinalizar para central o

número a ser chamado. Com a substituição parcial das telefonistas por sistemas

eletromecânicos torna-se necessário definir como estes sistemas processam uma ligação

telefônica. Este processamento constitui o que é chamado de sinalização telefônica. Ou

seja, a sinalização representa os meios através dos quais a rede é gerenciada e as chamadas

são estabelecidas, mantidas e finalizadas. A mesma é necessária para que as informações de

controle sejam trocadas entre as centrais e para que a comutação ocorra entre todas as

centrais de um país e até mesmo em diferentes países. Na processo de sinalização são

trocadas entre as centrais (e mesmo para o terminal telefônico do assinante) informações de

encaminhamento, estado das linhas e controle das conexões.

A importância da sinalização com advento das centrais automáticas é clara na

medida que consideram-se as seguintes questões:

1) Como informar para a central que um dos assinantes desligou o telefone?

2) Como informar para a central que o telefone esta ocupado?

3) Como informar para a central que a ligação com outra central não pode ser

completada?

4) Como realizar o processo de tarifação de uma chamada?

Podemos dividir em primeira aproximação a questão da sinalização em duas

categorias. A primeira é a sinalização acústica que esta intrinsecamente ligada ao assinante.

Esta constitui uma comunicação audível com o usuário, a transmissão do número

discado/teclado entre as centrais na tentativa de estabelecer chamadas telefônicas e um sinal

para fazer o telefone tocar. Nesta categoria temos ainda o tom de discar (sinal de 425 Hz), o

sinal de chamada (campainha de 25 Hz) e outros tons de chamada. Na outra categoria

temos a sinalização entre equipamentos. Esta pode ser entre centrais ou entre centrais e

terminais de assinante. Neste tipo de sinalização tem-se a transmissão de informação entre

centrais indicando que a chamada foi finalizada e que os meios utilizados podem ser

liberados, a transmissão de informação entre centrais indicando que a chamada não pode

ser completada, a transmissão de informação utilizada para tarifação e por fim informação

utilizada para detectar e isolar sistemas com falhas.

As funções da sinalização são supervisão, endereçamento e informações sobre a

chamada. Na supervisão a sinalização é utilizada para monitorar o estado dos circuitos de

voz. No endereçamento a sinalização fornece as informações de encaminhamento (ex.

dígitos discados pelo usuário chamador). No caso de informações sobre a chamada a

sinalização é responsável pelo tom que o assinante chamado está sendo avisado, ocupado,

congestionamento na rede).

Com este avanços, em 1902 os telefones se tornaram mais parecidos com os de

hoje. Este telefones tinham bateria na Central, disco decádico, bocal para transmitir e

auscutador para receber. Naturalmente, O desenvolvimento da Central de Passo por

Strowger permitiu ao sistema telefônico alcançar maior número de assinantes. Mas ainda

havia alguns problemas para resolver. O primeiro era a questão de como transmitir a voz

por longas distâncias. O segundo era como otimizar centrais automáticas em regiões com

grande número de assinantes. Estes temas serão discutidos em seções posteriores

Ligações telefônicas de longa distância

Ao mesmo tempo, em outros locais do mundo diversos acontecimentos relevantes

para as telecomunicações ocorreram. Em 1893 no Brasil, o Padre Landell de Moura realiza

com êxito, na cidade de São Paulo, as primeiras transmissões de sinais telegráficos e da voz

humana em telefonia sem fio no mundo. Curiosamente, anos mais tarde ele foi

praticamente expulso da cidade de Campinas tendo sido acusado de bruxaria. Grande parte

de seus experimentos foram destruídos pelos acusadores. Em 1895, Gugliemo Marconi

demonstra a possibilidade de transmissão de sinais rádio elétricos e faz experiências nos

jardins da casa de seu pai, em Pontecchio, Itália. Marconi tem então apenas 21 anos. Suas

mensagens transmitidas por rádio (sem fios) já atingem uma milha (1,6 km) de distância.

Korn tenta com êxito, a transmissão de fotografias por meio de fios (telefotografia). Na

Rússia Imperial, Popov utiliza antena aérea e faz funcionar um telégrafo sem fio. Em 1896,

Marconi consegue, em Londres, a primeira patente mundial para o telégrafo sem fios. Ao

chegar da Itália, a alfândega britânica danifica os “misteriosos aparelhos” que ele trouxe

para demonstrar a viabilidade da transmissão de sinais de rádio. No Brasil é inaugurada a

Companhia Rede Telefônica Bragantina (CRTB) que, à época (1896 a 1916), talvez tenha

sido a maior companhia a operar em território brasileiro (1641km de linhas telefônicas).

Em 1897, Marconi consegue completar uma comunicação sem fio entre navios de guerra

italianos.

Com relação ao problema das longas distâncias, a primeira solução para aumentar

substancialmente o raio de atuação dos telefones é desenvolvida pelo Prof. Michael Pupin.

O processo mais tarde se chamará de pupinização. A idéia é baseada no carregamento da

linha por indutores. O carregamento tem como objetivo contrabalançar o efeito capacitivo

natural das linhas telefônicas. O carregamento por indutores permite alcançar maiores

distancias que sem o mesmo. Com o carregamento indutivo, tem-se o seguinte objetivo:

diminuir as distorções do canal telefônico na faixa de voz através do aumento destas

distorções fora da faixa de voz. Com isto o sinal através de linhas pode alcançar maiores

distâncias em detrimento da limitação da faixa de voz de 0 Hz a 4 kHz. Este fato terá

consequências posteriores quando forem desenvolvidos os primeiros sistemas de

comunicações de dados.

Com relação a transmissão de voz por longas distâncias, em 1901 Marconi consegue

transmitir sinais telegráficos, pelo telégrafo sem fios, através do Oceano Atlântico, entre a

Terra Nova (Canadá) e Cornualha (Sul da Grã-Bretanha). Em 1903, o físico alemão Korn

transmite imagens utilizando o telégrafo. Theodore Roosevelt e Clarence Mackay trocam o

primeiro telegrama à volta do mundo, em nove minutos. Mas em 1904, o cientista inglês

John A. Fleming inventa a válvula termoiônica eletrônica (ou válvula de Fleming),

patenteada com a finalidade expressa de “detectar sinais de rádio”. Em 1906, Reginald A.

Fessenden, físico norte-americano, faz a primeira demonstração da emissão radiofônica

autêntica, transmitindo a voz humana e tocando seu próprio violino para seus raros

“ouvintes” no primeiro “programa” de “broadcasting” da história. Enquanto isso, na

Alemanha, Karl Ferdinand Braun (que dividirá o Prêmio Nobel com Marconi em 1909) vê

sua válvula de raios catódicos ser aplicada no primeiro aparelho de televisão construído no

mundo, numa experiência pioneira.

Mas o ponto mais relevante para a transmissão telefônica de longa distância foi

dado por Lee de Forest ao inventar a válvula de três pólos (triodo) em 1906. Esta válvula

pode ser utilizada como amplificador de sinais elétricos. Em 1907, Theodore Vail

(presidente da AT&T) encomendou aos pesquisadores da Bell para construírem um

amplificador baseado na válvula. No final a AT&T comprou a patente de de Forrest. Com o

sucesso da válvula triodo, a primeira ligação transcontinental logo ocorreu. A válvula triodo

se baseia no princípio que dois dos terminais são responsáveis pela passagem de uma

corrente significativa. Entre os dois terminais existe um outro terminal que regula quanta

corrente pode efetivamente atravessar. Se este terminal for ligado a um sinal elétrico fraco,

a corrente que atravessará a porta será determinada por o sinal fraco. Na realidade a

corrente será proporcional a este sinal fraco. Sendo portanto uma cópia do sinal fraco com

muito mais potência.

Em 25 de janeiro de 1915 Alexandre Graham Bell, na solenidade da inauguração da

ligação transcontinental, Nova York- São Francisco, repete a seu velho amigo Thomas

Watson a frase de 10 de março de 1876: “Mr. Watson come here. I need you.”. Watson, na

outra ponta da linha, a mais de 4 mil quilômetros, responde: “Desta vez, o senhor terá que

esperar um pouco mais para que eu atenda o seu chamado. Dentro de uma semana estarei

em Nova York.”. O limite anterior era de Nova York a Denver, contando com dois circuitos

metálicos, 2500 toneladas de cobre e 130000 postes. Tinha ainda um número enorme de

indutores de carregamento (pupinizados). E ainda assim só funcionava se os interlocutores

gritassem. A partir da introdução da válvula triodo como amplificador, o problema de

ligações telefônicas transcontinentais estava resolvido.

Tráfego telefônico

No entanto, o problema de como otimizar centrais automáticas em regiões com

grande número de assinantes ainda precisava ser solucionado. A solução foi dada por Agner

Krarup Erlang. Este pesquisador dinamarquês, conhecido como A. K. Erlang, foi o

primeiro a estudar o problema de redes telefônicas. Através do estudo de uma central em

sua vila ele chegou a formula hoje consagrada em todas as companhias telefônicas. Seu

primeiro trabalho foi publicado em 1909 e o segundo mais influente em 1917.

O problema que Erlang se dedicou foi como um grande numero de usuários podem

compartilhar de um pequeno numero de canais? De modo similar, este problema é

equivalente ao de como dimensionar os circuitos e troncos de centrais. A solução é permitir

o acesso de acordo com a demanda de uma série de canais disponíveis, ou seja,

disponibilidade de canais de acordo com chamadas. Este é um problema de tráfego (mais

apropriadamente da teoria de filas e de cadeias de Markov). Ao ouvir a palavra tráfego

muito possivelmente a primeira idéia é a de carros em uma via. Podemos imaginar um

sistema (loja, barbearia, etc.)cujo objetivo é atender os usuários. A este volume de

solicitações que o sistema deve atender é que associamos a idéia de tráfego. O estudo do

tráfego telefônico é importante pois permite às operadoras dimensionar e ampliar suas

centrais e os meios de transmissão que as interligam oferecendo um serviço de qualidade

bem determinada a um custo baixo.

No caso da telefonia, a chamada ocupa um determinado circuito, por um certo

tempo. Durante este tempo, outra chamada não pode ocupar este circuito. Então, tráfego é a

ocupação de um circuito, medido pelo tempo desta ocupação, em segundos, minutos, horas,

etc... Então, como a intensidade do tráfego telefônico é definida a partir da taxa de

ocorrência de chamadas e da duração dessas chamadas. Quanto maior a taxa de ocorrência

e/ou maior a duração dessas chamadas, maior será a intensidade de tráfego. A intensidade

de tráfego telefônico está diretamente ligada ao número de minutos que o circuito é

ocupado em um período de observação. Se em um tempo de observação de 60 minutos

ocorreram 6 chamadas telefônicas com tempo médio de 10 minutos, então o volume de

tráfego é de 60 minutos. A unidade de tráfego é o Erlang (Erl) que indica a razão entre o

volume de tráfego e o tempo de observação. Neste caso: tráfego é de 1 Erlang.

Existem outras unidades de tráfego em utilização no mundo, entre estas podemos

destacar:

- A Traffic Unit (TU) e a Verkehseinheit (VE), como o Erlang, indicam a

quantidade média de chamadas simultâneas.

- As unidades Cent Call Seconds (CCS), Hundred Call Seconds (HCS) e Unit Call

(UC) indicam a quantidade média de chamadas por hora, tomando-se como base

um tempo médio de chamada de 100 s.

- Finalmente, as unidades Appels Réduits a L`heure Chargée (ARHC) e Equated

Busy Hour Call (EBHC) indicam a quantidade média de chamadas por hora,

tendo por base um tempo médio de chamada de 120s

Como o tráfego é variável ao longo do tempo, utiliza-se o conceito de hora de maior

movimento (HMM) para dimensionar os circuitos telefônicos. A variação do tráfego ao

longo do tempo pode ser vista na figura 10.

Figura 10 – Variação do tráfego ao longo de um dia (24 horas). Além desta variação, o tráfego sofre

variações semanais, mensais e sazonais.

O tráfego em conjunto com o número de canais disponíveis determina o que é

chamado de qualidade de serviço ou grau de serviço (Grade of Service -GoS). Este é um

padrão usado para definir o desempenho desejado de um sistema dada a especificação da

probabilidade desejada que o usuário obtenha acesso a um canal dado um certo numero de

canais no sistema. Tipicamente se valor é igual a probabilidade que uma chamada seja

bloqueada ou que uma chamada tenha um atraso maior que um determinado tempo. Em

outros termos seu valor numérico é igual à porcentagem das chamadas oferecidas que são

rejeitadas (por exemplo 1 chamada não completada em cada 100).

Erlang estudou dois tipos de sistemas de acesso a circuitos telefônicos. O primeiro é

chamado de Erlang B (B de Blocked). Neste esquema as chamadas que não conseguem

canais livres para realizar a conexão são descartadas. O segundo é chamado de Erlang C (C

de Cleared). Neste esquema as chamadas que não conseguem canais livres para realizar a

conexão são alocadas em uma fila para atendimento posterior.

Em Erlang B supõe-se uma distribuição de probabilidade de Poisson para a

ocorrência de chamadas, com um número infinito de usuários. Estes usuários podem

requisitar chamadas a qualquer hora. O tempo de retenção da chamada (tempo de chamada)

tem uma probabilidade do tipo exponencial decrescente e o número de canais disponíveis é

finito. Neste esquema, a probabilidade de bloqueio de uma chamada (qualidade de serviço)

é dada pela expressão:

∑=

=C

k

k

C

kA

CA

bloqueio

0 !

!)Pr(

Onde C e o numero de canais e A e o tráfego total (em Erlangs). Com esta

expressão é possível responder a questões como: Para um sistema com 20 Canais e taxa de

bloqueio de 1% (1 chamada bloqueada em cada 100 chamadas) com chamadas de tempo

médio de 2 minutos e 2 chamadas por hora, Qual o número de usuários possível?

Com o uso da expressão chega-se que o número de 180 usuários.

Em Erlang C supõe-se haja uma fila para armazenar chamadas bloqueadas. Neste

caso a Qualidade de serviço medida como probabilidade que uma chamada seja bloqueada

depois de esperar determinado tempo na fila. Erlang C permite determinar atraso médio no

sistema. Apesar deste cálculo não ser demasiado interessante para sistemas telefônicos

comuns, sua aplicação maior está na utilização para dimensionar memórias (buffers) em

sistemas de roteamento por comutação de pacotes.

Para um sistema com C canais e tráfego A:

[ ]⎟⎠⎞

⎜⎝⎛ −−

⎟⎠⎞

⎜⎝⎛ −+

=>

∑−

=

HtAC

kA

CACA

AtatrasoC

k

kC

C

exp

!1!

)Pr(1

0

O atraso médio do sistema e dado por:

ACH

kA

CACA

AAtrasoC

k

kC

C

−⎟⎠⎞

⎜⎝⎛ −+

=

∑−

=

1

0 !1!

Assim com estas expressões é possível responder a questões como a de um sistema

com probabilidade de 5% de chamada atrasada tem 15 canais com uma carga por usuário

de 0.029 Erlangs com uma taxa de requisição de 1 chamada por hora. Quantos usuários o

sistema suporta?

Este sistema suporta 310 usuários e o atraso médio é de 0.87 segundos.

A teoria de tráfego de Erlang ainda levou muitos anos antes de ser adotada no

projeto de sistemas telefônicos. No entanto, hoje em dia esta teoria se encontra presente no

dimensionamento de diversas partes do sistema.

A evolução da telefonia e a multiplexação

A evolução das centrais automáticas continuou. Em torno de 1910 a central crossbar

foi inventada, mas nao foi utilizada em massa ate 1930. Em 1920, nasce a radiodifusão no

mundo, com a inauguração da emissora KDKA, em Pittsburgh, que inicia sua programação

regular. A 9 de julho, o tenor dinamarquês Lauritz Melchior irradiava sua voz num

programa experimental de rádio na Inglaterra transmitido pela Marconi Company. No

Brasil, em 1922, no dia do Centenário da Independência do Brasil, Roquete Pinto e

Henrique Morize transmitem o discurso de Epitácio Pessoa pelo rádio, fazendo com que

centenas de paulistas ouvissem a voz do Presidente da República por meio de alto-falantes

instalados na Praça da Sé. A estação transmissora foi instalada no alto do Corcovado. Era a

primeira transmissão radiofônica no Brasil. Induzidos no país os serviços de telegrafia e

telefonia via rádio entre Rio de Janeiro, Nova Iorque, Roma, Paris, Londres e Berlim,

havendo, na oportunidade, comunicação direta entre os presidentes Epitácio Pessoa, do

Brasil, e Herbert Hoover, dos Estados Unidos. Na Capital do Rio Grande do Sul, Porto

Alegre, no dia 30 de abril, é inaugurada a primeira central telefônica automática do país, a

terceira da América. Em 1923 em um laboratório da Westinghouse, o cientista Vladimir

Kosma Zworykin (nascido na Rússia e naturalizado norte-americano) desenvolve o

iconoscópio, elemento básico para a futura realização da televisão. No Brasil, em 1925 é

inaugurada, em Rio Grande (RS), a 21 de novembro, a segunda central telefônica

automática do país.

Em 1926 são conseguidas as primeiras ligações telefônicas intercontinentais através

do Atlântico Norte. No Brasil, em 1927 é inaugurada em Recife (PE), a 03 de dezembro, a

terceira central telefônica automática do país. No mesmo ano são realizadas as primeiras

demonstrações de televisão na Inglaterra (Baird) e nos Estados Unidos (Laboratórios Bell)

e é desenvolvido o projeto do amplificador com realimentação negativa (negative feedback)

de Harold S. Black.

As ligações telefônicas intercontinentais exigiram mais um avanço com relação aos

sistemas de transmissão. Mesmo em 1913, foi inaugurado o primeiro cabo interurbano

subterrâneo no Brasil, constituído de 30 pares ligando Santos e São Paulo, numa distância

de cerca de 70 quilômetros. Mais tarde foi obtida permissão para ligar Campinas. No

entanto a transmissão transatlântica exige um sistema de rádio para tanto. A ligação era

entre a Inglaterra (Rugby) e New Jersey (Deal) - Tinha 14 canais (frequências). A

transmissão dos 14 canais necessitava que os sinais de áudio de 4 kHz (3.1 kHz) fossem

transladados em frequência. Criou-se de uma forma natural a hierarquia multiplex FDM. A

multiplexação é o processo pelo qual se pode transmitir, “simultaneamente”, diversos sinais

através de um único canal e separá-los no extremo-receptor.

Figura 11 – Esquema da multiplexação. Diversos sinais são inseridos em um único canal de transmissão (com

maior banda naturalmente).

No FDM, com a criação do esquema de multiplexação nasceu ao mesmo tempo uma

hierarquia para transmissão. A hierarquia tinha a seguinte formação:

- O primeiro MUX: Grupo Básico – composto por 12 canais telefônicos,

ocupando a faixa padronizada de 60 a 108kHz.

- O segundo MUX: Super Grupo Básico - composto por 5 grupos de 12 canais,

tendo um total de 60 canais, formando o “Super Grupo Básico” e ocupando a

faixa de 312 a 552kHz.

- O terceiro MUX : Grupo Mestre - formado por 5 super grupos, uma banda base

de 300 canais, chamada Grupo Mestre e ocupando a faixa de 812 a 2044 kHz.

- O quarto MUX : Super Grupo Mestre - formado por 3 grupos mestre, uma banda

base de 900 canais, chamada Super Grupo Mestre.

- O quinto MUX : Banda Básica de 60 MHz - formado por 12 super grupos

mestre e uma banda base de 10800 canais.

Sinal n

Sinal 2

Sinal 1

Sinal n

Sinal 2

Sinal 1

DEMUXMUX Canal deTransmissão

Figura 12 – Montagem da hieraquia de multiplexação FDM.

Em 1928 no Brasil é inaugurada a primeira (quarta no país) central telefônica

automática na cidade de São Paulo (SP), com o prefixo “5”. No ano seguinte foi

inaugurada, em 24 de dezembro, a primeira central telefônica automática na então capital

da República (Rio de Janeiro).

Em 1931, as ligações telefônicas entre França e Inglaterra, no Canal da Mancha, já

são feitas por microondas. Este tipo de ligação é bem mais sofisticado e com banda base

muito superior a ligação de 14 canais de 1926. Este tipo de enlace é chamado de enlace em

visada direta. Suas vantagens inerentes tornaram sua escolha como o padrão para conexão

de longas distâncias continentais até o aparecimento do enlace por satélite nos anos 60. Um

ponto interessante é que as hierarquias FDM (na realidade todas as outras também) exigem

frequências mais elevadas para transmissão de voz nos grupos superiores ao grupo mestre.

Esta necessidade impulsionou o desenvolvimento de sistemas de frequências mais elevadas

com capacidade de transmitir um número maior de canais. É também deste período o

desenvolvimento do transceptor super-heteródino. Este tipo de transceptor é fundamental

para o desenvolvimento de sistemas de comunicação com maior capacidade de canais.

Naturalmente, o desenvolvimento de uma hierarquia de multiplexação não ocorreu

isoladamente, o desenvolvimento de uma hierarquia de centrais foi uma ocorrência

paralela. Nos idos dos anos 30, a hierarquia apresentava-se de modo diferente da mostrada

neste texto. A razão é que a denominação atual é significativamente mais moderna. O

CCITT padronizou a hierarquia de centrais seguindo classes. A central de classe mais

elevada é a classe 5. Este tipo de central é determinada por estar ligada a pelo menos uma

central trânsito internacional. Abaixo destas temos as classes 4 (trânsito interurbana), 3

(trânsito urbana), 2 (tandem) e 1 (local). A central classe 1 é a conhecida central local (CO).

Esta capilaridade é importante para poder atender os requisitos de roteamento e presença.

Um exemplo dos tipos de conexões entre centrais é mostrado na figura 13.

Figura 13 – Hierarquia das centrais e a capilaridade com as respectivas conexões.

Em 1937 as linhas de longa distancia nos EUA passam de aéreas para subterrâneas.

Neste mesmo ano, FDM foi utilizado com cabos coaxiais nos EUA. A razão desta mudança

pode ser facilmente entendida a partir da figura 14.

Figura 14- Razões para multiplexação com cabos coaxiais

Em 13 de fevereiro de 1938 o sistema Bell instala a primeira central CrossBar nos

EUA. Conhecida com No.1 Um comutador crossbar consiste de uma malha de barras

verticais e horizontais magneticamente ativadas. O equipamento de controle comum

ativava os comutadores. Os equipamentos chave eram:

- Registradores - buffers utilizados para guardar o numero chamado. Este

números eram guardados ate um marcador se tornar disponível

- Marcadores - responsáveis por atuar nas barras.

O Sistema da crossbar era caracterizado por ter Acessibilidade Limitada (nem todas

as ligações eram possíveis), sendo construído a partir de módulos de comutação. A

comutação deixou de ser passo a passo como na Strowger. Por este motivo houve a

implicação no desenvolvimento de uma hierarquia de centrais. Em conjunto com a

multiplexação há uma necessidade inerente no aperfeiçoamento da sinalização. Um

exemplo de módulo comutador crossbar e de uma central crossbar podem ser vistos na

figura 15.

Figura 15 – Módulo comutador crossbar e central crossbar.

A revolução digital

A partir de 1939, o mundo entrou na Segunda guerra mundial. O Estados Unidos

passaram a fazer parte da guerra no final de 1941. No entanto, após o final da guerra as

telecomunicações passaram por uma revolução (no sentido mais revolucionário da palavra).

A razão é que na década de 1948 a 1958 foi o período que se desenhou a mudança de

paradigma das telecomunicações e da eletrônica. Foi durante este período que surgiram: o

transistor, códigos corretores de erro, a teoria da informação, a modulação por codificação

de pulsos (PCM) e o início das comunicações ópticas (Lasers) e de satélite (Masers).

O desenvolvimento do transistor tem uma razão de ser. Com o triodo o sistema

telefônico conseguia alcançar longas distancias. De modo similar com as centrais Crossbar,

o sistema conseguia comutar grandes quantidades de tráfego. No entanto, havia problemas.

O Triodo consumia muita energia e as centrais consumiam muita energia e eram muito

grandes. A solução era a miniaturização. Ou seja, desenvolver um componente em estado

solido miniaturizado que pudesse realizar as funções do triodo e desenvolver um

componente em estado solido miniaturizado que pudesse realizar as funções de chave

(barras de comutação). Esta solução se materializou no transistor.

O transistor - construído em 1947, o transistor foi apresentado ao mundo em 1o de

julho de 1948. Seus criadores foram John Bardeen, William Shockley e Walter Brattain.

Este novo dispositivo podia funcionar tanto na amplificação quanto como chave.

Figura 16 – Os criadores do transistor, seu uso em um circuito de amplificação e uma foto de um

protótipo

Um outro problema que surgiu com os estudos é as transmissões de longa distancia

dependiam da potência do transmissor e da sensibilidade do receptor. Em última análise: a

relação sinal-ruído limitava a transmissão de sinais analógicos. A solução para transmitir

mais a longa distância era o uso de sinais digitais (não contínuos em amplitude e no tempo -

facilita recuperação). O uso de sinais binários (+ X Volts e – X Volts) facilita a recuperação

do sinal original. Pois a informação que o sinal é binário ajuda a reconstrução da forma do

sinal. Para garantir que o sinal corrompido pelo ruído seja recuperado é necessário enviar

bits extras de verificação (ocorreu o erro ou não?). Com isto surgiram os primeiros códigos

corretores de erro. Nascia a codificação de canal. Em 1948, Richard W. Hamming cria os

primeiros códigos corretores de Erro. Isto permite a primeira verificação de uma mensagem

enviada em formato digital. A idéia por trás dos códigos corretores de erro é a introdução

de redundância controlada (bits a mais) de modo que a probabilidade de erro seja

minimizada do valor que for desejado.

A mudança da transmissão analógica para digital trouxe uma outra questão: quanto

de informação eu posso transmitir pelo canal se eu me valer da transmissão digital? Em

1948, Claude Elwood Shannon desenvolve a teoria matemática da informação. Esta teoria

permite calcular o máximo de informação que um canal pode transmitir dada a sua banda

(Bw) e relação sinal ruído (S/N). Shannon chegou a seguinte expressão para um canal

estacionário com ruído branco gaussiano:

)/(1log 2 sbitNSBC w ⎟⎠⎞

⎜⎝⎛ +=

Exemplos de aplicação das formulas de Shannon

- Canal Telefônico

kbpsC 074.37)39811(log3100 2 =+=

- Rede de Acesso (Loop de Assinante – ADSL)

MbpsC 663.4)09.631(log772000 2 =+=

Portanto a máxima taxa possível de ser transmitida entre dois assinantes é de 37

kbps. No entanto, a máxima taxa possível de ser transmitida entre um assinante e a central é

de 4.6 Mbps. Esta é a razão pela qual o modem ADSL é significativamente mais veloz que

o modem comum.

Como o sinal digital possui tantas vantagens e posso enviar informação é

interessante montar o sinal telefônico de modo a aproveitar esta nova tecnologia. Para tanto

a multiplexação necessita ser efetuada no tempo, a razão é a que o canal passa a ser digital.

Em 1948, Claude E. Shannon, John R. Pierce e Bernard M. Oliver criam o código PCM que

permite transmitir múltiplas conversações telefônicas por o mesmo fio. Como o PCM foi

desenvolvido nos Estados Unidos, criou-se uma padronização própria (que não foi seguida

ao redor do mundo). O canal de voz de 4 kHz era amostrado a uma taxa de 8000 amostras

por segundo, e cada uma destas amostras era quantizada com 7 bits (128 níveis). Isto

permitia uma taxa de 56 kbps. Além destes 7 bits, 1 bit a mais era utilizado para

sinalização. A taxa total de transmissão era de 64 kbps. Como cada quadro PCM tem 24

canais, a taxa global do quadro é de 1.544 kbps. Este esquema é conhecido como T1.

No restante do mundo o PCM tomou outra forma. O canal de voz de 4 kHz era

amostrado a uma taxa de 8000 amostras por segundo, e cada uma destas amostras era

quantizada com 8 bits (256 níveis). Isto permitia uma taxa de 64 kbps. Cada quadro PCM

suportava 30 assinantes, mas além destes 30 canais, 2 canais foram adicionados para

sinalização e serviços. Como cada quadro PCM tem 30+2 canais, a taxa global do quadro é

de 2.048 kbps. Este esquema é conhecido como E1.

(a) (b)

(c)

Figura 17 – Quadros PCM. (a) quadro PCM T1. (b) Quadro PCM (E1). (c) Hierarquia plesiócrona.

Tempo

Tem

po d

e G

uard

a

Tem

po d

e G

uard

a

Jane

la d

o C

anal

3

Jane

la d

o C

anal

1

Jane

la d

o C

anal

2

Quadro

Fre

qüên

cia

8 bits

32 canais

Tempo

Tem

po d

e G

uard

a

Tem

po d

e G

uard

a

Jane

la d

o C

anal

3

Jane

la d

o C

anal

1

Jane

la d

o C

anal

2

QuadroF

reqü

ênci

a

7 + 1 = 8 bits

24 canais

EUROPABrasil &FrançaBrasil &França

30 120 4801920

2,048Mb/s

8,448Mb/s

34,368Mb/s 139,264Mb/

s

JAPÃO

EUA & CANADÁInglaterra

Alemanha

Itália

PAÍS

24 96 672 4032EUA &Canadá 1,544Mb/

s6,312Mb/s

44,736Mb/s

274,176Mb/s

Inglaterra 4032

120Mb/s

Alemanha 1440 5760108Mb/s 442Mb/s

Itália 1920 7680139,264Mb/s

565Mb/s1440 578024 96 480Japão

(NTT) 1,544Mb/s 6,312Mb/s 32,064Mb/s 97,728Mb/s 397,2Mb/s

ETAPA DE MULTIPLEXAÇÃO1° 2° 3° 4° 5°

x4 x7 x6

x4 x4 x4

x4x3

x14

x4x4

x4 x5 x4 x4

A criação do TDM permitiu o T1 em 1962. A partir do T1 formou-se a hierarquia

digital plesiócrona (PDH). Mas devido a questões de padronização diversas

implementações foram realizadas

Em 17 de agosto de 1951, o primeiro sistema transcontinental de microondas passou

a operar. 137 repetidoras espaçadas 45 km ligavam Nova York a San Francisco. O inicio

foi em 1947, 600 conversações ou dois canais de televisão poderiam ser enviados por este

meio.

Enquanto isto, em 1950 no Brasil entra em funcionamento a primeira estação de

televisão da América Latina em São Paulo (PRF-3-TV), a então TV Tupi, canal 3, no dia

18 de setembro. No ano seguinte, os norte-americanos fazem a primeira transmissão de TV

a cores em Nova York. Em 1957 é lançado, pela URSS, o primeiro satélite artificial -

Sputinik .No mesmo ano no Brasil em 8 de agosto tem início a operação da primeira central

manual de telex.

O primeiro cabo submarino veio em 1956. Este sistema era composto por 2 cabos

coaxiais separados de 60 km que cruzavam o atlântico, 50 repetidores eram utilizados no

sistema. O sistema podia transmitir inicialmente 12 conversações simultâneas. Este sistema

ainda utilizava tecnologia analógica. O problema de comunicações a longa distância ainda

não estava totalmente resolvido, dois anos antes da inauguração deste cabo submarino John

R. Pierce sugeriu que sinais refletidos de um objeto passivo refletor grande em órbita

poderiam ser utilizados para comunicação de longa distância.

Em 1957,os físicos Charles Townes e Arthur Schawlow expõem o princípio do

“Maser” (Microwave amplification by estimulated radiation) - Usado para comunicações

via satélite em 1962. Em 1958,os mesmos físicos expõem o princípio do “Laser” (Light

amplification by estimulated radiation). Este seria peça fundamental na revolução das fibras

ópticas das décadas de 70 e 80. Neste mesmo ano de 1958 é posto em funcionamento, após

4 anos de trabalho, desde a fase de planejamento até sua entrada em serviço, o primeiro

sistema de ligações por microondas da América Latina, ligando São Paulo, Campinas e Rio

de Janeiro. E também, o novo sistema de discagem direta à distância entre Santos e São

Paulo, através de cabo coaxial, o primeiro da América do Sul.

Em 1960, surgia o Echo. Este era fruto das idéias de John R. Pierce e da utilização

do Maser de Townes e Schawlow. O Echo consistia de uma grande esfera inflável com

revestimento metálico atuando com um refletor passivo no espaço.

Figura 18 – O Echo. Este satélite artificial foi utilizado como refletor passivo no espaço

Redes de Comunicação de Dados e Centrais Digitais

No mesmo ano do Echo, Joseph Kleimack e Henry Theurer desenvolveram a

técnica de crescimento epitaxial de semicondutores. Esta técnica possibilitou, anos mais

tarde, o nascimento da microeletrônica (Circuitos Integrados – Chips).

Nos anos de 1961 e 1962, dois artigos de grande importância foram publicados.

Curiosamente, poucas pessoas deram a importância devida quando da sua publicação. Em

31 de maio de 1961 Leonard Kleinrock do MIT publicou “Information Flow in Large

Communication Nets”. Este é o primeiro texto em teoria de comutação por pacotes. Em

agosto de 1962 J.C.R. Licklider & W. Clark também do MIT publicam “On-Line Man

Computer Communication”. Este texto introduz o conceito de uma rede Galática com

interação social distribuída.

No mesmo ano de 1962, outro evento importante ocorreu. O primeiro satélite

mundial de telecomunicações, o Telstar, construído pelos Laboratórios Bell, nos Estados

Unidos, permite a transmissão de TV intercontinental, a 10 de julho desse ano. A 31 de

agosto, é constituído o Comsat, consórcio internacional de comunicação via satélite,

antecessor do INTELSAT. No Brasil, a lei 4.117, institui o Código Brasileiro de

Comunicações e cria o Conselho Nacional de Telecomunicações – Contel.

O nascimento do satélite de comunicações permite a transmissão de ligações

telefônicas para praticamente todos os locais do mundo. Além disto o satélite possibilita a

transmissão de televisão intercontinental. Pode-se afirmar que a globalização das

telecomunicações tem suas primeiras sementes plantadas neste momento. O satélite Telstar

é muito mais do que o repetidor passivo representado pelo Echo. Este novo satélite tem

equipamentos para recepção, amplificação e transmissão de sinais. Este funciona portanto

como um repetidor ativo. A importância é a melhoria na qualidade do sinal transmitido e

recebido pelas estações terrenas. As estações terrenas podem utilizar transmissores e

receptores menos caros.

Figura 19 – O sistema Telstar

Em 1963, o Bell Labs desenvolveu o DTMF (Dual Tone Multiple Frequency) para

substituir a sinalização decádica do telefone a disco. Com isto novos tipos de serviços se

tornaram possíveis. O DTMF é utilizado ainda hoje nos telefones atuais. No Brasil, a lei

4117 transforma-se no Código Brasileiro de Telecomunicações, marco inicial da política

nacional do setor.

Em 1964 ocorre o Golpe de Estado no Brasil. Como consequência, a doutrina de

segurança nacional associada a substituição de importações tem um impacto profundo no

rumo das telecomunicações do Pais. Inicia-se um processo de nacionalização das

telecomunicações. É importante observar que o serviço de telecomunicações antes do golpe

tinha pouca qualidade. No mesmo ano, Paul Baran da RAND (Reserach And Development)

publica o artigo seminal “On Distributed Communications Networks” (Sobre Redes de

Comunicação Distribuída). Este artigo sobre redes de comutação por pacote de dados como

alternativa a redes de comutação por circuito (rede telefônica normal) terá um papel

importante para que departamento de defesa dos Estados Unidos (DoD) inicie a criação da

internet (no início ARPANET).

Em 1965 no Brasil em 16 de setembro é criada a Empresa Brasileira de

Telecomunicações (Embratel). No mesmo ano, após quase uma década de pesquisa e

desenvolvimento a central 1ESS (Electronic Switching System) e lançada nos EUA. Fruto

do Projeto ESSEX no Bell Labs consumiu US$ 500 milhões. Possui Memória (Controle

por Programa Armazenado - CPA). A 1ESS não é uma central digital, mas já apresenta

componentes de estado sólido (transitores e diodos). A comutação era realizada através de

Reles REED, portanto eletromecânica. A grande novidade era o controle de programa

armazenado (CPA).

Figura 20 – A 1 ESS, fruto do projeto Essex.

No Brasil, o projeto de Nacionalizacao vai de vento em popa. Em 1966, o governo

Brasileiro decide adquirir a Companhia Telefônica Brasileira, até então controlada por

capitais particulares canadenses. A antiga CTB atuava em 5 Estados (na Região Sudeste) e

era responsável por 66% dos telefones do país, inclusive a maioria dos que operavam no

Estado de São Paulo. Em 1967, o Decreto-lei nº 200, de 25 de fevereiro, prevê a criação do

Ministério das Comunicações, que se instala a 15 de março. Em 1969, a 3 de março é

lançada a nave Apolo IX e a 16 de julho o homem pisa pela primeira vez na Lua com

transmissão ao vivo pela TV. Criada a ARPANET. O Brasil recebe as primeiras imagens do

Intelsat II. Inaugura-se em 28 de fevereiro, a estação terrena de Tanguá, que permite ao

Brasil integrar-se ao sistema mundial de comunicação por satélite (Intelsat), marcada pela

transmissão ao vivo da benção do Papa Paulo VI. A Embratel inaugura os primeiros

grandes troncos de microondas (Tronco Sul, Rio-Brasília, e parte do Tronco Nordeste). Em

1970 surgem as primeiras fibras ópticas para telecomunicações. Durante esses anos Dennis

Ritchie e Ken Thompson desenvolvem um sistema operacional que se tornou base para as

modernas centrais de comutação digital O sistema é conhecido como Unix.

Na década de 70, o Brasil evoluiu bastante nas telecomunicações. Em 1970, o Brasil

assiste pela primeira vez um campeonato mundial de futebol em transmissões diretas pela

TV e a Seleção Brasileira ganha a Copa no México. No ano seguinte a CTB, sob nova

direção e profunda reformulação, lança o Plano de 1 Milhão de Telefones. Em 1972, a

Embratel completa a implantação do Sistema Básico de Microondas, interligando todos os

Estados e Territórios por troncos de microondas de alta qualidade e serviços de elevada

confiabilidade. A 9 de novembro, instala-se a Telecomunicações Brasileiras S.A., a

Telebrás, empresa “holding” do setor, responsável pela modernização das empresas

governamentais de serviços públicos de Telecomunicações no País. Os primeiros

“Orelhões” (telefones públicos nas calçadas) são instalados em janeiro no Rio de Janeiro e

São Paulo. É realizada a primeira transmissão de TV em cores, no Brasil, a Festa da Uva,

em Caxias do Sul (RS). No ano seguinte é ativado o primeiro cabo submarino para

comunicações internacionais, o Bracon I, de Recife a Las Palmas, na costa da África. Em

1975 o Brasil integra-se ao sistema de discagem direta internacional (DDI). O Governo

Federal decide estudar um sistema doméstico de comunicação por satélite para integrar

todas as regiões ainda não atingidas por serviços públicos de telecomunicações.

Industrializado do primeiro telefone público inteiramente nacional. A 1º de agosto entra em

operação a Rede Nacional de Telex. Em 1976 no Brasil durante Centenário do telefone de

Graham Bell. Inaugura-se do primeiro Museu do Telefone no Brasil, em Bragança Paulista.

No ano seguinte inaugura-se o Museu do Telefone de São Paulo.

Paralelamente a estes acontecimentos, começaram a surgir as primeiras centrais de

comutação digitais. As centrais de comutação eletrônicas criam novos serviços com o uso

de CPAs (Programas Armazenados).Estas centrais utilizam múltiplos estágios para

diminuir o uso da memória (bastante cara nesta época). A centrais mais avançadas passam a

ser digitais. Naturalmente, isto cria um ímpeto a digitalização da rede. A comutação nas

centrais passa a ser temporal (T) além de espacial (S). A comutação espacial (S) é o método

natural para centrais eletromecânicas. Mas a comutação temporal é perfeita para centrais

digitais. A razão é que a comutação temporal nada mais é do que uma troca de bits no

tempo. Na prática, as centrais digitais utilizam-se tanto da comutação temporal quanto

espacial. Normalmente as centrais digitais utilizam comutação TST (Temporal-Espacial-

Temporal). As centrais TST permitem menor complexidade que as espaciais. Permitem

maior economia com relação as espaciais (dependendo da carga da central). A primeira

central a utilizar esta tecnologia foi a 4ESS (1976). Esta é uma central digital (comutação

T).

Figura 21- Comutação em uma central digital (estrutura TST)

O ímpeto de digitalização da rede levou a mudanças no processamento da ligação:

mudanças na sinalização de registrador (MFC - canal associado para SS7 - canal comum),

mudanças na sinalização de linha (E& M para R2 digital) e digitalização dos canais entre

centrais. Antes a sinalização de Linha utilizava a chamada sinalização E & M (contínua

e/ou pulsada).Quando passou-se para uma rede digitalizada passou-se a uma sinalização

digital (R2). A sinalização de linha em sistemas digitais é a R2 digital. Esta utiliza canais

do PCM para realizar a sinalização (a & b), podendo controlar diversas conexões.

A sinalização de linha pode ser dividida em duas partes: sinalização de linha de

assinante e sinalização de linha entre centrais. A função da sinalização de linha de

assinantes é transmitir informações sobre o estado dos circuitos (ocupação, atendimento,

desligamento, tarifação, disponível ou bloqueado). A identificação do estado da linha é

realizada através da verificação do monofone no gancho ou não através da corrente que

circula no circuito, emissão do número do terminal chamado através do disco ou teclado

decádico. A codificação é a do teclado multifrequencial (DTMF - combinação de

freqüências duas a duas). A sinalização de linha entre centrais é responsável pela

supervisão enlace a enlace dos circuitos que interligam duas centrais. Neste ponto é que a

mudança de sinalização de linha passou a ocorrer.

Figura 22 – Sinalização de linha em diversos meios de transmissão.

No sistema anterior esta sinalização entre centrais era realizada pela transmissão de

pulsos através do canal E e M. A sinalização E + M Contínua se valia da presença ou

ausência de sinal e por utilização de Corrente Contínua (esta era utilizada na interligação

entre centrais. a dois fios, através da variação da intensidade da corrente do circuito). Na

sinalização R2 digital, dois canais PCM são utilizados para envio do sinal e dois PCM para

recepção do sinal. Os canais são:

- af: monofone no gancho ou não

- bf: indica falhas na saída do PCM

- ab: condições da linha do chamado

- bb: estado do equipamento de comutação de saída (livre ou não)

A mudança na sinalização de registradores teve mais impacto (apesar de ainda não

estar consolidada no mundo até os dias de hoje). A sinalização adotada anteriormente no

Brasil era a MFC. Nos Estados Unidos, esta sinalização era a MF. Além de diversas

diferenças, a sinalização MFC é compelida. Isto significa que cada comando exige uma

resposta. Além disto esta sinalização é multifrequencial (composta de um grupo de

frequências altas e outro de baixas). A frequência de referência é de 1260 Hz. Os sinais

criados podem ser para frente (da central chamadora) ou para trás (para a central

chamadora). Esta sinalização esta gradualmente dando lugar a sinalização por canal

comum.

Enquanto o sistema telefônico corria a passos largos em direção de uma rede

comutada a circuitos totalmente digital, surgiam as primeiras redes comutadas a pacote no

horizonte (ARPANET). Com o aparecimento da ARPANET, também foram criadas as

primeiras aplicações de tráfego de dados servidos pelo sistema telefônico. Ao contrário das

rede comutadas a circuito esta redes eram comutadas a pacotes.

Figura 23- Redes comutadas a circuitos e a pacotes

A transmissão de dados em ambiente comutado a circuitos (linhas telefonicas) era

realizada utilizando MODEMS (Modulador/Demodulador). Em linhas dedicadas poderiam

ser utilizados MODEMS DIGITAIS (Modems Banda Base) ou Interfaces de conexão mais

adequadas (V35, RS232, etc…).Gradualmente passou-se a utilizar canais digitais de maior

capacidade (T1, T2, T3, E1 e E2). O Modem v.22 bis era utilizado em ligação ponto-a-

ponto com linhas dedicadas e operação em modo duplex em linha telefônica comutada; os

canais eram separados por divisão de frequência, o modem possuía equalização adaptativa

e tinha taxas de transmissão de 2.4 kbps e 1.2 kbps com detecção automática da taxa de

transmissão. Estes modems foram bastante comuns no início das ligações de dados para

BBS (Bulletin Board Services).

A evolução dos modems levou a um de grande sucesso que foi o v.32 bis. Este era

utilizado para ligação ponto-a-ponto com linhas dedicadas e operação em modo full-duplex

em linha telefônica comutada. O modem implementava separação de canais por técnicas de

cancelamento de eco. A Modulação era QAM para cada canal com transmissão. síncrona a

2400 símbolos/s. E ainda podia trabalhar a 14.4 kbps, 12 kbps, 9.6 kbps e 7.2 kbps (com

codificação de treliça).

Estes modems eram o prenúncio de algo muito maior no horizonte próximo.

Em 1978 foi ativada, no Japão, a Telefonia Móvel Celular. Dois anos mais tarde no

Brasil, em fevereiro foi implantado o sistema internacional de satélites de comunicação -

Inmarsat - cobrindo as regiões dos oceanos Atlântico, Índico e Pacífico. Em maio é

introduzido o primeiro serviço de comunicação de dados da América do Sul, o Trandata

interligando Rio de Janeiro - São Paulo - Brasília. Frame relay e concebido no Bell Labs

para uso na ISDN (RDSI). No ano seguinte, é criado o projeto Ciranda, primeiro sistema de

informação, no Brasil, a interligar computadores pessoais (1981-1985). O Projeto Ciranda,

da Embratel, em 1981, marcou o primeiro esforço de informatização da sociedade ocorrido

em um país do Terceiro Mundo. No mesmo ano é criada a BITNET (Because Its There

NETwork) nos EUA.

Em 1982 é instalada em abril, na cidade de São Paulo (Brasil), a primeira Central

CPA (Central com Controle por Programa Armazenado), da América Latina, com o prefixo

572. Em agosto foi inaugurado o primeiro TP Comunitário (telefone público que recebe

chamada) em São Paulo, na favela da Vila Prudente. Dois anos mais tarde, são instalados

pela Cetel, no Rio de Janeiro, os primeiros cabos de Fibra Óptica no Brasil, entre as

estações de Jacarepaguá e Cidade de Deus. São colocados, também, os primeiros pedidos

de escala de Videotexto junto a indústria brasileira (da ordem de milhares de unidades).

Introduzido o primeiro serviço público de correio eletrônico, no Brasil. Ativada a Rede

Nacional de Comunicação de Dados por Comutação de Pacotes - Renpac. A Renpac é o

nome comercial de um conjunto de modalidades de Serviço de Comunicação de Dados por

Comutação de Pacotes, que propicia a interligação entre terminais de dados,

microcomputadores e computadores de grande porte, localizados em qualquer parte do

território nacional e no exterior. O Serviço RENPAC pode ser utilizado por redes

corporativas de grandes empresas, integrando seus equipamentos para a comunicação de

dados, com supervisão e gerência nas dependências da EMBRATEL ou do cliente.

Também atende ao pequeno cliente que deseja ter acesso a bases de dados de seu interesse.

A Renpac foi uma rede publica de comunicação de dados funcionando com ligações

comutadas. Os acessos a rede podiam ser dedicados, via rede telefonica e via rede telex. As

velocidades de acesso eram de 300, 1200, 2400, 4800, (9600, 19.2K, 48K, 64Kbps). A

Renpac se desdobrou em diversos sabores (Renpac 3025, 3028, 2000 e 1000). Cada um

tinha taxas específicas.

Mudanças no cenário de Telecomunicações

Neste mesmo ano (1984) é quebrado o monopólio da AT&T nos EUA. A quebra do

monopólio da AT&T teve repercussões importantes. Podemos destacar o impulso na

utilização de fibras ópticas em BACKBONES (principalmente de longa distancia) -

alternativa econômica e de banda larga. A criação da possibilidade de novos serviços

através da ligação em BACKBONES de transmissão de dados. O impulso para o

desenvolvimento de uma nova hierarquia digital mais adequada a transmissão de dados e

voz e não só de voz. E além disto, permitiu competição na conexão de longa distância para

operadoras regionais e locais nos EUA (As operadoras podiam escolher o provedor de

longa distância).

No Brasil em 1985, em junho foi instalado o primeiro cabo de Fibra Óptica em São

Paulo entre as estações de Basílio da Gama e Santa Ifigênia. A 8 de fevereiro, o Brasil é o

primeiro país da América Latina a conquistar seu lugar na órbita espacial: lançado o

Brasilsat (Satélite Doméstico Brasileiro), pelo foguete francês Ariene III, da base de Kouru,

Guiana Francesa. Três anos mais tarde ocorre a primeira transmissão de TV com som

estéreo digital do Brasil durante o show da cantora Tina Turner no Maracanã (RJ), cujas

imagens foram recebidas nos EUA pela rede de TV a cabo HBO. O ATM é padronizado

pelo CCITT. Em 1980, pesquisadores do BELL Labs e da France Telecom desenvolvem a

base de um protocolo para transmitir pacotes e dados pela mesma estrutura de comutação

(Funciona com pacotes sob demanda (tamanho 48 bytes)). Este protocolo chamado de

ATM foi padronizado em 1988.

No ano seguinte, é criado no Brasil o Sistema de Tratamento de Mensagens

ampliando o correio eletrônico para qualquer ponto do país ou do exterior. Em setembro

deste mesmo ano é lançado o projeto da RNP no Brasil. Em 1990, o Rio de Janeiro passa a

ser a primeira cidade brasileira a usar a Telefonia Móvel Celular. No mesmo ano é criado o

Frame Relay Forum.

Figura 24 – A RNP em 1991

Em 1991 o Brasil implanta o serviço de videoconferência. No mesmo ano é criado o

ATM Forum. No ano seguinte, no Brasil é instalado, em junho, o primeiro telefone público

(TP) a cartão em nível nacional, no Rio de Janeiro por ocasião da ECO 92. Lançada a Multi

Rede Digital, que permite a integração de rede de voz, dados, textos, inclusive fac-simile e

videoconferência, sob forma totalmente digital. Em 1993, no Brasil é instalado, em

outubro, o primeiro telefone público a cartão na cidade de São Paulo no Museu de Arte de

São Paulo (MASP). Inauguração da Telefonia Móvel Celular em São Paulo, considerado o

último dos grandes mercados do mundo. Implantação definitiva do sistema terrestre de

fibras ópticas com inauguração de 420 km interligando Rio de Janeiro - São Paulo.

Interligação do Brasil à rede mundial de fibras ópticas (17 de dezembro, na Praia do Futuro,

Fortaleza, foi lançado a ponta do cabo submarino América 1 - ativado em setembro de

1994).

Em 10 de agosto de 1994 foi lançado o satélite Brasilsat B1 - 2ª geração do Intelsat.

No ano seguinte é implantada a Internet no Brasil. No Brasil, em abril de1997 dá-se início a

implantação generalizada de telefones públicos que recebem chamada na Cidade de São

Paulo. Em maio entra em vigor uma nova forma de aquisição de linha telefônica; deixando

o Autofinanciamento e entrando na Tarifa de Habilitação, pela qual o assinante paga apenas

uma pequena tarifa na data da instalação e não tem direito a ações da empresa de

telecomunicações. Este novo sistema passou a vigorar integralmente em 1º de julho.

Desativada, em 23 de abril, a primeira Central Telefônica Automática da cidade de São

Paulo, com 68 anos de funcionamento ininterrupto. Promulgada, em 16 de julho, a Lei n°

9.472 - Lei Geral de Telecomunicações - e criada a Anatel (Agência Nacional de

Telecomunicações. Em 17 de novembro, começa a operar o primeiro serviço celular digital

nacional da Banda B, em Brasília.

Figura 25 – A RNP em 1997.

No Brasil em 19 de maio de 1998 são ativados os primeiros celulares digitais da

região metropolitana de São Paulo. Em 22 de maio a Telebrás é dividida em 12 holdings (8

de telefonia celular mais Telenorte-Leste, Telecentro-Sul, Telesp, de telefonia fixa e

Embratel. Em julho é lançado, em caráter pioneiro nacional, no Rio de Janeiro, o TP a

cartão de crédito. Em 29 de julho, as 12 empresas do Sistema Telebrás foram privatizadas

por R$ 22.058 bilhões, a Telesp Participações, com o valor pago de R$ 5.783 bi, tem como

líder no consórcio a Telefónica de España, e a Telesp Celular, com o valor pago de R$

3.588 bilhões, a Portugal Telecom. Em novembro a Telesp Celular lança o seu celular

digital. Na noite do dia 25 de novembro é lançada a marca mundial da Telefônica, no dia 25

de novembro é lançada a marca mundial da Telefônica, no dia 26 a população paulistana

acorda já com os "Orelhões" verde-limão espalhados por vários pontos da capital São

Paulo.

Figura 26 – A RNP em 1998.

Depois desta época o que mudou (2000)?

- Desregulamentação das Telecomunicações em breve

- Ênfase em comunicações de dados

- Diferentes competidores

- Diferentes meios de acesso - competição para provimento a vista

- 2 redes com backbone nacional - Embratel & RNP

No entanto, em 2001 veio o estouro da bolha das telecomunicações. Em resumo

pagou-se muito sem perspectiva de retorno a curto e médio prazo. Resultado: cenário de

retração nas telecomunicações, com indicações de formação de conglomerados

internacionais para maximizar retorno econômico e minimizar risco. Por outro lado, este

tipo de abordagem pode dificultar a inovação independente (fora dos conglomerados).

Figura 27 – A RNP em 2000.

E quanto ao futuro? Pode-se imaginar que deste ponto em diante diversos caminhos

possam ser tomados. Uma indicação é que o IP (Internet Protocol) se torne dominante

causando o desaparecimento das hierarquias intermediárias. Outra indicação é a

convergência tecnológica, podendo se tornar mais difícil determinar as fronteiras entre a

telefonia e outros serviços de telecomunicações tais como radiodifusão. Espera-se que esta

integração resulte em serviços adicionais para o usuário com transparência quanto ao seu

uso. Uma das palavras chaves aparenta ser mobilidade. Do ponto de vista das operadores de

serviços de telecomunicações estas mudanças implicam em uma gerência integrada de

serviços, base de dados completas de assinantes, agentes inteligentes para criação de perfis

de usuários e adaptação de serviços para as novas oportunidades.

Mas nem tudo são flores, afinal ainda restarão desafios como a inclusão digital

(fundamental para aumentar retorno financeiro), a complexidade inerente a estes sistemas, a

dificuldade de determinar qualidade da informação (autoridades certificadoras talvez se

tornem necessárias), as barreiras culturais a serem vencidas pelo avanço das comunicações

e finalmente as questões de privacidade e segurança.

Entretanto, pode-se afirmar sem sombra de dúvida que as próximas décadas trarão

desafios ainda maiores dos que foram mostrados. O ponto principal deste texto pode ser

visto como a luta dos provedores dos serviços de telecomunicações para maximizar a sua

base de usuários (universalizar o sistema) e aumentar seu retorno financeiro.

1

REDES DE ACESSO 1. INTRODUÇÃO Uma rede de telecomunicações é a combinação de um conjunto de elementos que são utilizados para o intercambio de voz e dados entre os vários usuários conectados à rede. A rede é o suporte ao permitir que um usuário se comunique com qualquer parte do mundo, e possa transmitir suas informações através de fios de cobre, cabos coaxiais, fibras óticas e tecnologia de comunicações sem fio, tais como microondas e satélites. Com o crescimento da Internet, as exigências apresentadas para a tradicional e centenária rede de telefonia têm se incrementado nos últimos anos. O impacto da Internet na rede de voz se exemplifica ao observar que com aplicações de voz o tempo médio de conexão entre usuários oscila entre 3 a 6 minutos e no caso da Internet este tempo médio de conexão é de 19 a-29 minutos. Isto resulta em uma sobrecarga da rede assim como o estabelecimento de novos critérios de avaliação para projetos de expansão e atualização tecnológica. O crescimento da Internet nos últimos anos tem sido vertiginoso, assim como o aparecimento de diversos serviços. Na maioria dos casos, a multiplicidade de serviços produz a necessidade de maiores velocidades de transmissão em função de critérios de qualidade e apresentação. Os avances tecnológicos trazem a solução para melhorar a velocidade de transmissão para os usuários finais, desempenhando um papel fundamental na melhoria dos serviços de telecomunicações e a sua conseqüente evolução. Este documento apresenta a definição da rede de acesso, elemento da rede de telecomunicações, assim como as diferentes tecnologias envolvidas na sua implementação. 2. DEFINIÇÃO A rede de telecomunicações pode ser vista como um modelo de três camadas:

1. Comutação e Serviços: nós de comutação, locais e de trânsito. 2. Camada de Transporte: enlaces entre os nós (tecnologias PDH, SDH e tecnologias de fibra óptica). 3. Camada de Acesso: rede que liga o cliente ao enlace local (comutador local).

Uma definição básica é a que define a rede de acesso. A rede de acesso tem uma visão diferente para cada um dos diversos participantes da rede de telecomunicações. Entre estes participantes podem se enumerar os usuários finais, os provedores de serviço de Internet e os provedores de serviços de telefonia, TV a cabo e comunicações sem fio. É interesse deste documento centralizar o conceito de rede de acesso nos provedores de serviços de telefonia, TV a cabo e comunicações sem fio. Neste caso, o acesso é a conexão entre o usuário final (que pode ser um usuário doméstico ou um usuário corporativo) para um ponto de terminação da planta instalada ligada a um nó de acesso. Como um exemplo, na área de telefonia isto seria conhecido como um ponto de distribuição local. Então, o termo rede de acesso denomina a forma de conexão entre a central local e o usuário/cliente. O grosso do investimento nas telecomunicações é feito na rede de acesso e em muitos casos pode exceder 50% do capital total investido em uma área de serviço. O problema concentra-se em: fornecer ao usuário uma rede de acesso que possa atender as necessidades das suas diferentes aplicações e ao mesmo tempo preservar o interesse custo benefício da operadora de telecomunicações. Evolução No inicio da implementação da Internet até a primeira metade dos anos 90, o tráfego dos serviços oferecidos era baseado principalmente em texto, sem elementos gráficos e multimídia. Em 1995, com a mudança destes serviços para uma apresentação gráfica a partir do conceito de World Wide Web (WWW), a Internet experimentou um incremento no seu número de usuários e de serviços oferecidos. De forma geral, no inicio da difusão do acesso a Internet foram utilizados modems para os usuários residenciais e comerciais de pequeno e mediano porte. Estes equipamentos conseguiam velocidades de transmissão entre 28.8 Kbps até 56 Kbps. Hoje

2

em dia, são necessários elementos de conexão que permitam maiores velocidades de transmissão, especialmente para os usuários corporativos. A transferência de imagens através da Internet, formadas por um grande conjunto de bits, foi o inicio de um grupo de necessidades crescentes de novos serviços com requerimentos diferenciados de desempenho. Isto levou ao desenvolvimento e implantação de novas tecnologias de acesso que permitissem ultrapassar a tradicional velocidade oferecida pelos modems. A tabela 1 mostra os requerimentos de velocidade de transmissão para uma série de diferentes serviços oferecidos hoje em dia.

Serviço Necessidade de largura de Banda Voz e Fax 64 Kbps Áudio e radio digital 200 Kbps Texto gráfico e imagens 1.0 Mbps Vídeo – MPEG1 1.5 Mbps Jogos digitais com qualidade de CD-ROM 3.0 Mbps DVD, DirectTV (MPEG2) 6.5 Mbps

Tabela 1 : Necessidades de largura de banda

3. TECNOLOGIAS DE ACESSO As tecnologias de acesso podem-se classificar em dois grandes grupos : (1) acceso por fio, (2) acceso sem fio. Na figura 1 é mostrada uma classificação das tecnologias de cada grupo. 3.1 Tecnologias de acesso por fio Dentro das tecnologias por fio, aquelas que usam o par trançado são as pioneiras e principalmente as mais utilizadas nos usuários residenciais. A evolução das tecnologias neste tipo de meio tem permitido acessos mais velozes que os originalmente oferecidos. As fibras ópticas e cabos coaxiais foram introduzidos para aplicações de difusão de imagens, basicamente televisão a cabo. Estes sistemas são de banda larga e hoje em dia podem ser aproveitados no suporte de tecnologias de alta velocidade para o acesso a Internet. Os meios sem fio surgiram a partir dos sistemas de satélite estabelecidos para difusão de imagens e transmissão de televisão e dos sistemas de telefonia celular. A fibra óptica em combinação com as tecnologias SDH (Synchronous Digital Hierarchy) tem sido a opção de acesso das grandes corporações e no futuro espera-se que a PON (Passive Optical Network) seja a nova opção de acesso também para usuários residenciais.

Figura 1: Classificação das tecnologias de acesso

Tecnologias deAcesso

Com Fio Sem Fio

Coaxial Fibra eCoaxial

CATV HFC

Fibra Par Trançado

PON XDSLISDNModem

Satélite Terrestre Celular

LMDS MMDS PCSSDH

3

3.1.1 Acesso por par trançado Um par trançado é constituído por dois fios de cobre, arranjados em formato espiral. O enlace para a transmissão é formado por um arranjo e vários pares podem ser agrupados para criar pontos de distribuição. No sistema telefônico existe uma grande planta de par trançado instalada já que tem sido utilizado como a forma de conexão entre o assinante e a central de distribuição, chamado de enlace local. Um exemplo simplificado de uma parte desta planta pode ser visto na figura 2.

Figura 2 : Distribuição de acesso por par trançado no sistema telefônico O par trançado pode ser utilizado para transmitir ambos sinais digitais e analógicos. Para sinais analógicos são necessários amplificadores a cada 5 ou 6 km. e no caso de sinais digitais são necessários repetidores a cada 2 ou 3 km. Assim também existem fortes limitações em função da distância, largura de banda e velocidade de transmissão. No par trançado a atenuação (diminuição da força do sinal) é fortemente influenciada pela distância e existe também uma alta suscetibilidade às interferências. Para a transmissão de voz, como a que acontece em um enlace local, a atenuação é aproximadamente de 1dB/km sobre o intervalo de freqüência de voz.Existem três tipos de acessos que fazem uso do par trançado:

• Modems • ISDN • xDSL

Modems O intercambio de dados na Internet se concretiza entre dois equipamentos digitais, normalmente computadores. Como os computadores para a transmissão geram sinais digitais, estes sinais devem ser representados em sinais analógicos para serem transmitidos na linha utilizada para a transmissão de voz. O modem análogico converte uma série de pulsos binários (dois valores) em um sinal digital ao representar o sinal em uma freqüência portadora, que no caso do sistema telefônico é na faixa de 3400 Hz. No outro ponto da linha, outro modem demodula o sinal para reconstruir o sinal original. Os modems analógicos são equipamentos que realizam o processo de modulação para que os sinais digitais possam trafegar no meio físico. Modulação é o processo pelo qual são modificadas uma ou mais características de uma onda denominada portadora, segundo um sinal modulante (informação que se quer transformar pelo

Ponto deDistribuição

(DP)

Ponto deDistribuição

(DP)

Ponto deDistribuição

(DP)

Ponto deCruzamento

deConexões

(CCP)Central Local

20 pares

50 pares

30 pares

400 pares

4

meio, na comunicação de dados o sinal digital binário). No caso dos modems, as técnicas de modulação utilizadas são FSK (Frequency Shift Keying) e QAM (quadrature amplitud modulation). Quase todos os modems para uso pessoal utilizam a técnica de transmissão assíncrona. É um método de intercâmbio de informações entre dois computadores diferentes, que operam de maneira independente e não compartilham nenhuma informação de sincronia. Geralmente, os sinais dos modems que utilizam a rede telefônica são assíncronos, porque seria mais caro e mais difícil sincronizar sinais através do sistema telefônico, onde os sinais podem ser redirecionados a qualquer momento, sem aviso. Assim também são utilizadas técnicas de compressão e correção de erro. Usando este tipo de acesso, são alcançadas taxas simétricas de 33.6 kbps e assimétricas de 56 kbps upstream e 33.6 kbps downstream. Existe uma estimativa de que hoje no mundo existem em funcionamento 500 milhões de modems.

ISDN (Integrated Services Digital Network) É uma rede que é o resultado da evolução da rede digital integrada (RDI) de telefonia, que proporciona conectividade digital fim a fim, para dar suporte a uma variedade de serviços vocais e não vocais, aos quais os usuários têm acesso através de um conjunto limitado de interfaces usuário-rede padronizadas. Os canais utilizados neste tipo de acesso são:

Canal telefônico analógico de 4KHz (A) Canal PCM (Pulse Code Modulation) de 64 Kbps (B) Canal digital de 8 ou 16 Kbps (C) Canal digital de sinalização de 16 Kbps (D) Canal digital de sinalização de 64 Kbps (E) Canal digital de 384, 1536 ou 1920 Kpbs (H)

Os canais B podem ser utilizados para duas chamadas separadas de voz, ou uma de voz e uma de dados a 64 kbps, ou duas de dados a 64 kbps. Os sistemas de transmissão digital nas linhas de assinantes utilizando pares metálicos não são objeto de padronização no âmbito das interfaces físicas da ISDN. As linhas de assinante podem alcançar até 10 Km. A rede trabalha com o conceito de um Acesso Básico (2B+D) e um Acesso Primário (30B+D). xDSL (x Digital Subscriber Line) Uma linha de assinante do sistema telefônico tem uma limitação na velocidade de transmissão pela existência de filtros nas centrais para trabalhar na faixa de 3.3 kHz (pensando-se somente na transmissão de voz) e isto é a principal causa de que no par trançado, usando-se a linha telefônica para transmissão de dados, não se possa trabalhar em freqüências na faixa dos MHz. Assim também, existe o problema da atenuação, que é uma função da distância e da freqüência, como pode ser visto na figura 3. O conceito básico de DSL é referente a um tipo de modem que estabelece um enlace digital. É realizada uma transmissão duplex de 160 Kbps sobre linhas de cobre em distâncias de até 6Km, fazendo-se uso de faixas de freqüência diferentes para voz e dados, o que permite a transmissão simultânea de ambos. A idéia básica do funcionamento do modem DSL é que em função da transmissão em diferentes faixas, a voz e os dados podem ser separados nos pontos de distribuição e enviados a diferentes destinos (rede de voz e rede de dados). Assim também, fazendo-se uso de técnicas mais eficientes de modulação, podem-se alcançar velocidades mais altas de transmissão no par trançado. Um conjunto de tecnologias xDSL tem sido padronizadas e ainda estão em processo de padronização pelo ANSI (American National Standards Institute) e o fórum ADSL (Assymetric Digital Subscriber Line), entre outros. As tecnologias derivadas do DSL podem ser vistas na tabela 2.

5

Figura 3 : Curva de atenuação do par trançado em função da distância e freqüência.

Tecnologia Taxa Upstream Taxa Downstream Distância Max. No. pares

ADSL-1 16-64 kbps 1.5-2.0 Mbps 6 km 1 ADSL-3 640 kbps 6.144 Mbps 4 km 1 VDSL (Very High Speed DSL)

Em padronização Em padronização Mais curta que ADSL

RADSL (Rate Adaptive DSL)

Ajustável em função da qualidade do par trançado

Ajustável em função da qualidade do par trançado

HDSL (High Data Rate DSL)

1.5 Mbps 1.5 Mbps 4 km 2

SDSL (Symmetrical DSL)

64 kbps - 2 Mbps 64 kbps - 2 Mbps 4 km 1

Tabela 2 : Tecnologias xDSL Para exemplificar, na figura 4 é mostrado um acesso ADSL. Para a instalação física, o modem e o telefone compartilham a mesma linha de cobre através de um splitter até o nó de acesso e assim o sinal de dados é multiplexado ao sinal de voz (analógico) na linha de transmissão, sem interferir no funcionamento do mesmo. Em função da atenuação do par trançado, a distancia entre o terminal de usuário e o nó de acesso, na prática não ultrapassa 4 Km. Posteriormente, no nó de acesso, o sinal de dados é separado do sinal de voz através de um outro splitter e cada um é enviado para destinos diferentes. Na prática, o multiplexador é chamado de DSLAM (Digital Subscriber Line Access Multiplexer). Para a transmissão dos dados a tecnologia ADSL utiliza a tecnologia DMT (Discrete Multitone) que divide a faixa de freqüência em 256 subportadoras, de 64 KHz a 1.1 MHz. O DMT utiliza modulação em quadratura (QAM), onde cada subportadora usa um canal independente.

Atenuação (dB)

10 100 1

0

2

4

6

8Freqüência

(Hz)

1 km 2km

3km 4km

diâmetro do cabo = 0,5mm

POTS POTS : Plain Old Telephone System

6

Figura 4 : Acesso ADSL 3.1.2 Sistemas híbridos : Acesso por Fibra e Cabo Coaxial Cabo coaxial O cabo coaxial, da mesma forma que o par trançado é formado por dois condutores, mas a sua construção permite uma operabilidade em um intervalo maior de freqüências. É formado por um condutor cilíndrico que envolve um condutor interno único, tendo um diâmetro de 1 cm a 2.4 cm. Pode ser utilizado para a transmissão de sinais digitais e analógicos. Durante muitos anos, o cabo coaxial foi de grande importância na telefonia de longa distância, mas nos últimos anos foi substituído pelas fibras ópticas, microondas e satélites. Hoje em dia, o cabo coaxial é muito utilizado nos sistemas de televisão por assinatura (CATV) e em redes locais de dados. Para transmissão de longa distância com sinais analógicos, são necessários amplificadores a cada poucos quilômetros, com menor espaçamento ao trabalhar em altas freqüências. O espectro para sinais analógicos é até a faixa dos 400 MHz. Para sinais digitais, repetidores são necessários quase a cada quilômetro, onde têm sido alcançadas taxas de 800 Mbps com repetidores a cada 1.6 Km. Fibra óptica A fibra óptica é um meio flexível e fino que conduz raios de luz. As primeiras fibras foram fabricadas fazendo uso de materiais baseados em plástico e vidro, materiais ainda utilizados. Os materiais recentemente utilizados tem sido baseados em silício. A transmissão de sinais na fibra óptica é realizada a partir da emissão de luz (de um diodo ou um raio laser), onde a partir da reflexão, é realizada a transmissão na faixa dos 1014 a 1015 Hz. Existem basicamente dois tipos de fibras: as que alcançam melhores taxas são as do tipo monomodo (mais finas) e segundo, as multímodo. Ambas fibras suportam vários comprimentos de onda, centralizados em 850, 1300 e 1500 nanômetros. O uso da fibra para telecomunicações é vantajoso pois a mesma trabalha em grandes freqüências conseguindo-se taxas de transmissão na ordem dos Gigabits, com baixa atenuação em longas distâncias e minimização de custos ao trabalhar com poucos repetidores. Nas telecomunicações existem várias aplicações básicas para a fibra óptica:

• Enlaces de longa distância; • Enlaces metropolitanos; • Enlaces entre centrais trânsito (em áreas rurais ou urbanas); • Enlaces locais (da central a um assinante); • Redes locais de alta velocidade.

s

s

s

Nó deAcesso

Multiplexador

TerminalPSTN

Central

ComutadorATM

ComutadorTelefônico

Voz

NxE1 (dados)

E1 (Voz)

Rede Dados

Rede PSTN

7

Sistemas HFC (Cable TV Hybrid Fiber/Coax) No final de 1995, vários operadores de cabo se agruparam sob o auspicio da Cable Television Laboratories (CableLabs) para especificar as especificações DOCSIS (Data Over Cable Service Interface Specifications), padrão para a transmissão do dados sobre o sistema de transmissão de cabo. Um sistema de cabo consiste em um ponto de terminação (headend), onde os sinais de vídeo são coletados e modulados em uma pilha de freqüências, conhecido como fila de canais, e os sinais são enviados para cada assinante usando cabo coaxial. Cabos de fibra óptica, em topologia de estrela carregam o sinal de cabo a conjuntos de residências, onde a distribuição do sinal é feita usando-se cabo coaxial em uma topologia de bus. Um exemplo deste sistema pode ser visto na figura 5.

Figura 5 : Sistema HFC

Os sistemas tradicionais possuem somente a capacidade de broadcast em uma direção (downstream). Estes sistemas trabalham na faixa do 50 para 550/750 MHz com canais de 6 MHz. Os cable modems são utilizados para permitir o acesso a Internet e transmissão de dados na direção downstream do sistema HFC, conseguindo-se velocidades de ate 30 Mbps em um canal de vídeo de 6 MHz. O sinal de upstream é provido por um canal telefônico existente, fazendo-se uso de modems, por exemplo. Os sistemas HFC bidirecionais possuem capacidade de transmissão em ambas direções. Este tipo de sistemas, normalmente trabalham com uma largura de banda de 50 a 750 MHz na direção downstream usando-se canais de vídeo de 6MHz. Na direção upstream, a banda é compartilhada entre todos os assinantes e normalmente é limitada na faixa de 5 a 40 MHz. As velocidades alcançadas da direção de downstream estão na faixa dos 30 Mbps e no upstream na faixa dos 10 Mbps. As vantagens do acesso pela combinação de fibra e cabo coaxial é que trabalha relativamente numa alta velocidade com pouca modificação na rede e funciona com receitas provenientes da telefonia, difusão de TV o que permite a divisão dos custos entre muitos usuários. As desvantagens concentram-se na sua atual baixa penetração no mercado (menos de 30% em média) e na expectativa que o par metálico deve superá-lo em breve em termos de taxas. 3.1.3 Acesso por fibra O enfoque de levar a fibra mais perto do assinante em combinação com outros meios tais como par trançado e cabo coaxial tem levado aos conceitos de FTTC (Fiber to the Curb), FTTH (Fiber to the home), FTTO (Fiber to the Office) entre outros. Em função do custo há uma tendência de concentração em torno dos pontos onde há um

headend

Nó deacesso

Nó deacesso

Cabo coaxial

fibra

fibra

Cabo coaxial

8

retorno imediato, e assim a chegada direta da fibra se da hoje nos pontos que concentram um número de assinantes ou aplicações que compensem o investimento. PON O acesso PON (Private Optical Network) tem como objetivo levar a fibra até o assinante fazendo uso da tecnologia WDM (Wave Division Multiplexing). A fibra chega ao nó de acesso e desse ponto, usando-se um splitter, várias fibras são lançadas até o ponto final em uma ONU (Optical Network Unit), onde o assinante as pode distribuir no seu local. O acesso PON tem a vantagem de fornecer um acesso robusto com baixos custos de manutenção e permite trabalhar uma grande multiplicidade de serviços de banda larga. A desvantagem é o alto custo, que em comparação com as outras alternativas de acesso, ainda não representa uma competitividade especialmente para usuários residenciais.

Figura 6 : Acesso por fibra SDH Os anéis SDH (Synchronous Digital Hierarchy) são utilizados para prover acesso de alta capacidade para comunidades, tais como núcleos industriais, campus universitários, empresas, etc. Um anel SDH permite ter uma garantia de serviço fazendo uso de uma arquitetura anular bidirecional. No assinante, um multiplexador é encarregado de prover o transporte ao combinar diversos fluxos de dados em uma única fibra fazendo uso de um modo de transmissão síncrono (STM em inglês), que agrupa estes fluxos de dados em tributários. Na prática, os comutadores ATM (Asynchronous Transfer Mode) são utilizados para o estabelecimento da conexão de rede e da camada de enlace neste tipo de conexões. A figura 6 mostra exemplos de implementações de PON e SDH. 3.2 Tecnologias sem fio No final do século XIX, H.G. Hertz, um cientista alemão, mostrou que as ondas de rádio podiam-se propagar em um meio sem fio, por um caminho entre um receptor e um emissor. Após esta experiência, grandes desenvolvimento tem se realizado nesta área, resultando em tecnologias de transmissão por microondas. Hoje em dia, a transmissão por microondas é parte fundamental do cenário das telecomunicações,

Centro Empresarial

Residencia

Fábrica

Nó deacceso

TerminalDigital

Multiplexador

SplitterPON

ONU

ONU

ONU

WDM

Anel SDH

WDM

WDM

WDM

Campus

Lan 1

Lan 2

Lan 3

Multiplexador

Rede Corporativa

Lan 1

Lan 2Lan 3

MultiplexadorONU : Optical Network Unit

WDM : Wave Division MultiplexingPON : Passive Optical Network

LAN : Local Area NetworkSDH : Synchronous Digital Hierarchy

9

Microondas por Satélite Um satélite é uma estação aérea de transmissão do tipo broadcast que é utilizada para criar um enlace entre estações terrestres. O satélite recebe as transmissões em uma freqüência (uplink), as amplifica ou funciona como repetidor e depois as transmite em outra freqüência (downlink). Para que um satélite possa funcionar corretamente, é necessário que mantenha uma posição estacionária ou fixa em relação à terra, pois do contrário as estações terrestres teriam dificuldades para estabelecer o enlace. Os satélites são usados principalmente nas seguintes áreas:

• Distribuição de sinais de TV • Transmissão telefônica de longa distancia • Redes de Dados privadas

O intervalo de freqüência ótimo para transmissão por satélite é na faixa de 1 a 10 GHz. A banda C, com uplink entre 5.925 a 6.425 GHz e de downlink entre 3.7 e 4.2 GHz é a mais utilizada. Em função da saturação da banda C também se trabalha com a banda Ku, entre 12 e 14 GHz, que precisa de satélite com maior potencia de transmissão em função da atenuação nesta faixa de freqüência. O uso de satélites para acesso a Internet funciona hoje na faixa dos 12 GHz, com taxas de 400 kbps. O satélite é um elemento ótimo para distribuição do mesmo conteúdo para um número muito grande de usuários, mas tem problemas em controlar o retorno. O equipamento na casa do assinante consiste de uma antena parabólica de aproximadamente 52 cm de diâmetro, um receptor de microondas e um decodificador digital ligado ao computador. O canal de retorno (uplink) pode ser provido pelo sistema telefônico.

Figura 7: Acesso sem fio

3.2 Microondas Terrestres A principal utilização das microondas terrestres é na área de telecomunicações uma alternativa as tecnologias de acesso com fio, tais como par trançado, cabo coaxial e fibra óptica. Assim também são utilizadas para comunicação de redes privadas com sinais digitais (por exemplo, entre dois prédios) e estabelecimento e enlaces de alta velocidade em pequenas regiões. O assinante de um sistema de microondas terrestres precisa de um equipamento que lhe permita capturar ondas, interpretar a informação contida nessas ondas e também, transmitir as suas próprias informações (ver figura 7). Geralmente, o assinante deve instalar uma antena e um equipamento receptor/emissor (que realiza modulação e demodulação). A faixa de freqüência comumente utilizada é de 2 a 40 GHz. Entre maior a freqüência, maior a largura de banda potencial e conseqüentemente maior a taxa de transmissão. A principal fonte de perda nestes sistemas é a atenuação, principalmente em função da distancia e de elementos atmosféricos, como a chuva.

Antena

Nó de Acesso

RedeComutada

HeadEnd

Assinante Modem

Antena

ReceptorAssinante

Antena

Receptor

10

Sistema MMDS O sistema MMDS (Multichannet Multipoint Distribution Service) pode fornecer canais de downlink em uma distância de 50 Km, a partir de um ponto central de transmissão. Nos EUA opera a 2,5 GHz com 33 canais e é tipicamente oferecida como uma tecnologia ponto a multiponto com taxas típicas de 384 a 512 kbps (downlink) e 256 a 384 kbps para uplink. O público alvo são residências e pequenas empresas. Sistema LMDS O sistema LMDS (Local Multipoint Distribution System) é a principal tecnologia sem fio de banda larga para transmissão de voz, dados e multimídia acima da faixa dos 20 GHz, alcançando taxas de transmissão 4 vezes maiores que o sistema MMDS. É utilizada uma arquitetura similar ao sistema celular, mas os serviços são de natureza fixa, não móvel. Ao contrário dos telefones celulares, os usuários têm localização fixa e permanecem dentro de uma única célula Os transmissores LMDS cobrem áreas de aproximadamente 3 a 5 Km, os sinais são transmitidos usando broadcast ponto a multiponto sendo que o canal de retorno do assinante à estação base é ponto a ponto. Uma rede LMDS consiste basicamente de 4 elementos principais :

• Centro de operações de rede: gerenciador de regiões com grupos de assinantes, sendo que vários centros são interconectados entre eles.

• Infra-estrutura óptica: Elementos SDH/WDM para enlaces com outras redes (telefônicas e de dados). • Estações base: onde é realizada a conversão da infra-estrutura óptica em infra-estrutura sem fio. Assim

também é aquí onde são realizadas as funções de transmissão de microondas para os assinantes. • Estação cliente: Equipamento externo para microondas (antena) e equipamento interno para recepção,

sendo que a forma de acesso à rede pode ser feita usando FDMA (Frequency Division Multiple Access), TDMA (Time Division Multiple Access) ou CDMA (Code Division Multiple Access).

Nos sistemas LMDS a chuva provoca séria atenuação e portanto limita o alcance confiável a uma faixa de 3-5 Km a depender do clima e da freqüência de operação. Sistema PCS (Personal Cellular System) Atualmente, no sistema PCS estão se realizando pesquisas e padronizações para estabelecer o acesso a Internet e outros serviços de dados. Em função de que o sistema celular utiliza canais de banda estreita, onde são alcançadas taxas entre 9.6 kbps e 15.5 kbps é necessária uma otimização dos canais para o envio de dados no momento que se encontram ociosos. 4. CONCLUSÕES O acesso aos serviços de parte dos usuários é um dos principais fatores que mobiliza o mercado das telecomunicações. As empresas de telecomunicações precisam facilitar o acesso aos seus usuários para assim diversificar e consolidar o seu mercado. A rede de acesso é o ponto de entrada do usuário ao mundo de intercambio de informações. Com a difusão da Internet e seus serviços, inicialmente muitos usuários fizeram uso da planta telefônica já instalada, mas hoje em dia o acesso que estes usuários procuram lhes deve permitir integrar uma série de serviços diferentes, tais como voz, dados e multimídia de uma forma transparente. Esta necessidade tem impulsionado o desenvolvimento de novas tecnologias que têm como objetivo difundir e expandir a cobertura e volumem de assinantes em um mercado altamente competitivo e dinâmico. O desenvolvimento das várias tecnologias de acesso procura balancear os critérios de velocidade, viabilidade e custo. Assim também, os critérios de qualidade de serviço, congestionamento, atraso entre outros, devem influenciar o comportamento dos usuários e o futuro desenvolvimento de novas tecnologias.

11

5. BIBLIOGRAFIA STALLINGS, William, “Data and Computer Communications”, Pearson-Prentice-Hall, 7a. Edição, 2003. YACOUB Michel D., “Foundations of Mobile Radio Engineering”, CRC Press, 1993. INTERNET ACCESS, Web Proforum Tutorial, IETF. LOCAL MULTIPOINT DISTRIBUTION SYSTEMS, Web Proforum Tutorial, IETF. FELLOWS D, Jones D, ‘DOCSIS CABLE MODEM TECHNOLOGY”, Topics in Broadband Access, IEEE Communications Magazine, Março, 2001. ELSENPETER Robert, Velte T., “Optical Networking – A Beginners Guide”, Mc-Graw-Hill Osborne, 2002. ADSL Forum – www.adsl.com KRAPF, E. “Fiber Access: The Slog Continues”, Business Communications Review, p. 38-41, Aug. 2001. TANENBAUM Andrew S, “COMPUTER NETWORKS”, Prentice-Hall International, 2a. Edição.

Redes Multimídias

1- Introdução O desenvolvimento das tecnologias de transmissão de dados possibilitou o surgimento das redes de alta velocidade com capacidade de transportar informações na ordem de milhões de bits por segundo. A existência dessas redes tornou possível a implementação de aplicações que requisitassem grande capacidade de transmissão. Dentre estas aplicações, podem ser citadas, como das mais importantes, as aplicações multimídia.

A maioria das aplicações utilizadas nas redes de dados atuais é pouco sensível a variações de banda e retardo. Os serviços de rede como correio eletrônico e transferência de arquivo podem executar com a quantidade de banda que é fornecida a eles. Serviços interativos, tais como login remoto, beneficiam-se pouco de valores de banda maiores. Esta aplicação envia apenas pequenos pacotes de dados e o maior benefício de ter muita banda disponível é reduzir a interferência de grandes pacotes sobre pequenos pacotes de dados, pois os pequenos levam menos tempo para serem transmitidos. A aplicação de sistema de arquivos distribuído (NFS - Network File System) se beneficia de um maior valor de banda. Ter uma rede com muita banda passante reduz o tempo para transmissão de dados do servidor para o cliente. No entanto, o aumento de banda passante para as aplicações citadas, faz apenas com que elas sejam executas mais rapidamente, mas não influencia no resultado ou na correção de suas execuções.

As aplicações multimídia geram vários tipos de informação, como texto, dados, voz, vídeo e imagem. Em uma transmissão multimídia, todas essas informações devem ser enviadas em um mesmo meio de comunicação. Por esse motivo, e pelo fato de alguns tipos de informação, como vídeo, por exemplo, possuírem muitos dados, a transmissão destas aplicações, requer uma grande capacidade de banda passante. Cada um desses tipos de informação possui requisitos diferentes, no que diz respeito a retardo de transmissão, taxa de erros, perda de dados e largura de banda. Assim, uma rede para transmitir uma aplicação multimídia deve oferecer garantias de qualidade de serviço (QoS - Quality of Service), para que todas as informações transmitidas tenham seus requisitos atendidos.

A negociação da qualidade de serviço consiste em fazer, no início de cada conexão, uma negociação dos parâmetros de transmissão necessários a cada tipo de aplicação e, a partir daí, tanto as aplicações como a rede deve obedecer aos requisitos de qualidade estabelecidos. Esse tipo de negociação, feito apenas no início da transmissão, pode ser chamado de negociação estática, pois os parâmetros acordados no estabelecimento da conexão continuam até que ela finalize. A negociação dinâmica da qualidade de serviço permite que os parâmetros de qualidade sejam alterados durante a fase ativa da conexão. Essa negociação pode ser feita para requisitar mais ou menos recursos. Dessa maneira, se uma aplicação estiver subutilizando recursos, ela pode liberá-los. Estes recursos podem ser reaproveitados por conexões que, em um determinado momento, exijam mais recursos ou até mesmo por aplicações que desejem iniciar uma transmissão. A utilização da negociação dinâmica possibilita uma melhor utilização do meio de transmissão.

Uma rede, para transportar dados de aplicações multimídia, deve oferecer, portanto, alta velocidade de transmissão e garantias de qualidade de serviço. Nesse sentido, a tecnologia de rede ATM (Asynchronous Transfer Mode) tem-se mostrado como uma das mais eficientes. 2- Tipos de Mídias

As aplicações multimídia atuais integram vários tipos de mídia: texto, gráficos, imagens, vídeo e áudio. Cada tipo de mídia possui características e requisitos de comunicação diferentes. Algumas das características de uma aplicação multimídia são: natureza do tráfego gerado, retardo máximo de transferência, variação estatística do retardo, vazão média e taxas aceitáveis de erro em bits ou em pacotes de dados.

Uma das principais características é a natureza do tráfego gerado. Podem existir três tipos de classes de tráfego: tráfego com taxa de bits constante, onde a taxa média é igual a taxa de pico; tráfego em rajadas, que possui períodos onde as informações são geradas próximas à taxa de pico, intercalados com períodos nos quais a fonte não produz tráfego algum; tráfego contínuo com taxa variável, no qual existem variações na taxa de bits, durante todo o período de transmissão. De acordo com o tipo de informação presente em uma mídia, esta pode ser definida como discreta ou contínua. Texto, gráfico e imagem são exemplos de mídias discretas, enquanto que áudio e vídeo são exemplos de mídias contínuas. O termo multimídia geralmente implica que pelo menos um tipo de mídia discreta esteja associado com informação de mídias contínuas. 2.1- Características das Mídias

Cada mídia possui características e necessidades de desempenho distintas. A seguir são mostrados os principais tipos de mídia, suas características e seus requisitos. 2.1.1 Texto

O texto tem sido, historicamente, a principal forma de interação entre computadores e seres humanos. É também, juntamente com difusões armazenadas e filmes, a principal forma de comunicação assíncrona (comunicação adiada no tempo) entre humanos, através de livros, jornais, cartas e mais recentemente correio eletrônico. A mídia de texto pode ser representada de duas maneiras. Uma como texto não formatado, onde o número de caracteres disponíveis é limitado e em geral, o tamanho dos caracteres é fixo e estão disponíveis apenas uma forma e um estilo. A outra forma de representação é como texto formatado, onde o conjunto de caracteres é mais rico, com múltiplas fontes, tamanhos e capacidades de formatação.

Na maior parte das aplicações, a mídia de texto caracteriza-se por tráfego em rajada. Não é tolerante a erros e o retardo máximo de transferência e a variação estatística do retardo não são características muito relevantes.

2.1.2 Gráficos

O formato dos documentos de gráficos possui informações estruturais. Os objetos podem ser apagados, redesenhados, movidos ou terem seu tamanho alterado. São formados por objetos tais como linhas, curvas ou círculos. Estes objetos podem ser removidos, adicionados, movidos, diminuídos ou aumentados. Eles possuem atributos do tipo espessura, escala de cinza, cor ou padrões de preenchimento.

A mídia gráfica é caracterizada pelo tráfego em rajadas com vazões médias chegando a algumas dezenas de megabits por segundo. Como em texto, o retardo máximo e a variação estatística do retardo não são muito importantes. A taxa de erros de bits e de pacote depende do tipo de gráfico e também se foram utilizadas ou não técnicas de compressão ou compactação. Para gráficos no formato matricial e sem compressão, a taxa de erros de bits pode ser bem maior que a taxa de erros de pacotes. Para gráficos no formato vetorial, onde forem utilizadas técnicas de compressão, o erro em um único bit é intolerável. Um fato importante a ser considerado, em relação a taxa de erros, é saber se o gráfico será processado apenas pelo olho humano ou também pelo computador . 2.1.3 Imagens

São conhecidas também como figuras e não contêm informação estrutural. As imagens de computador são representadas por mapas de bit (bitmaps). Um mapa de bit simples é uma matriz espacial de duas dimensões feitas de elementos individuais chamados pixels. Gráficos ou textos podem ser representados ou armazenados como imagens, sendo convertidos para formato bitmap .

Os requisitos de comunicação da mídia imagem são bem semelhantes daqueles para mídia gráfica. A mídia imagem também é caracterizada pelo tráfego em rajadas com vazões médias chegando a algumas dezenas de megabits por segundo. O retardo máximo e a variação estatística do retardo não são muito importantes. A taxa de erros de bits e de pacotes depende do tipo de imagem, se foram utilizadas ou não técnicas de compressão ou compactação, e se a imagem será processada apenas pelo olho humano ou também pelo computador. 2.1.4 Vídeo

Tanto as imagens quanto os gráficos podem ser mostrados em uma tela de computador como uma sucessão de visões que criam uma impressão de movimento. Assim, podem ser chamados de imagens em movimento ou também figuras em movimento e gráficos em movimento ou também animação de computador.

A característica de imagens ou gráficos em movimento é que todas as visões não são independentes. Elas são correlatas e em geral cada quadro é uma variante do quadro anterior. Pode-se entender por quadro como sendo uma visão completa e individual da tela do computador em um determinado instante, parte de uma sucessão de visões apresentadas. O retardo entre a aparição de dois quadros sucessivos é geralmente constante e o número de quadros mostrados por segundo é chamado de taxa de quadro. Para que se tenha uma real impressão de movimento, a taxa de quadros deve ser acima de 16 quadros por segundo (qps). Filmes são mostrados a uma taxa de 24qps. Padrões da TV

americana e japonesa atuais utilizam 30qps, enquanto o padrão europeu utiliza 25qps. Um dos muitos padrões de TV de alta definição (High-Definition Television - HDTV), opera a 60qps. A mídia de vídeo caracteriza-se por gerar um tráfego contínuo com taxa constante.

Mesmo quando for executada alguma técnica de compactação ou compressão e o tráfego gerado ficar caracterizado como um tráfego com taxas variáveis, o sinal deve ser reproduzido no destino em uma taxa constante. O retardo de transferência máximo tem grande importância e a variação estatística do retardo deve ser compensada. A taxa de erros de bits pode ser maior que a taxa de erros de pacotes. Mesmo a taxa de erros de pacotes não é tão crítica, pois como a imagem não é estática, devem ser gerados vários quadros por segundo. A tolerância a taxa de erros é dependente da utilização de técnicas de compressão ou não, pois quando estas técnicas são utilizadas, um erro pode se propagar. Em quadros que contenham uma propagação de erro, o erro em um único bit pode ser intolerável enquanto quadros que não possuam propagação de erro podem tolerar erros de bits e de pacotes.

Existem cinco classes de qualidade para vídeo, são elas: televisão de alta definição (HDTV), televisão digital com qualidade de estúdio, televisão com qualidade de difusão, televisão com qualidade VCR (Videocassette Recorder) e qualidade de videoconferência de baixa velocidade. 2.1.4 Áudio

A mídia de áudio, assim como a mídia de vídeo, caracteriza-se por gerar um tráfego contínuo com taxa de bit constante. O tráfego gerado, caso não seja utilizada nenhuma técnica de compactação ou compressão, é do tipo CBR (Constant Bit Rate). Caso contrário, o tráfego pode ser caracterizado como VBR (Variable Bit Rate) ou até mesmo como em rajadas, no caso da voz com detecção de silêncio. Mesmo no caso do tráfego em rajadas, o sinal deve ser reproduzido no destino a uma taxa constante.

A variação estatística do retardo deve ser compensada. A estratégia utilizada pelos algoritmos de compensação baseia-se fundamentalmente em assegurar uma reserva de pacotes antes de dar início ao processo de reprodução, introduzindo um retardo inicial a cada surto de voz. O retardo de transferência máximo é crítico, principalmente no caso de conversações. Os problemas de retardo tornam-se críticos apenas para aplicações que exigem comunicação interativa em tempo real. A mídia de áudio tolera uma taxa de erros de bits ou de pacotes relativamente alta, pois os sinais de áudio possuem um alto grau de redundância. É importante, no entanto, que os pacotes não sejam muito grandes para não se perder muito tempo no empacotamento e conseqüentemente aumentar o retardo de transferência. 3 – Aplicações Multimídias

As aplicações multimídia possuem muitas características em comum com outros tipos de aplicações, mas também possuem características particulares. Dentre as principais características específicas podem ser citadas as seguintes: podem necessitar de transmissão em tempo real de informação de mídia contínua (áudio e vídeo); o volume de

dados trocados é substancial e muitas vezes considerável, devido à codificação de informação de mídia contínua; muitas aplicações são inerentemente distribuídas.

As aplicações multimídia podem ser executadas em um sistema multimídia individual, no modo stand-alone, ou através de uma rede de computadores. Uma aplicação multimídia local utiliza apenas os recursos presentes no sistema local para oferecer os serviços multimídia e não faz uso da capacidade de armazenamento remoto. Exemplos desse tipo de sistema multimídia são: Treinamento individual baseado em computador (Individual computer-based training - CBT) e Educação individual baseada em computador (Individual computer-based education - CBE). Aplicações executadas através de uma rede de comunicação são ditas distribuídas. Duas razões principais para se ter aplicações multimídia distribuídas são: • Suporte a aplicações naturalmente distribuídas. Aplicações que oferecem serviços de comunicação à distância, como videoconferência, correio eletrônico multimídia e transmissão de pacotes de áudio e vídeo para vários nós de uma rede. • Implementação do modelo cliente-servidor. Para alguns sistemas multimídia, pode ser mais vantajoso utilizar recursos dos vários sistemas espalhados pela rede. Como exemplo destes recursos, pode ser citada a capacidade de armazenamento oferecida por um servidor para que os vários sistemas possam acessá-lo remotamente. As aplicações multimídia distribuídas podem ser apresentacionais ou conversacionais. As aplicações apresentacionais fornecem acesso remoto a documentos multimídia. Estes documentos podem estar armazenados digitalmente em um ou mais dispositivos de armazenamento de alta capacidade (computadores servidores) e os usuários podem recuperar a informação multimídia em tempo real de servidores multimídia através de uma rede de banda larga para os seus dispositivos de apresentação. As aplicações conversacionais envolvem tipicamente comunicação multimídia em tempo real. Podem ainda ser classificadas em serviços sob demanda ou de difusão. Muitas aplicações possuem aspectos apresentacionais e conversacionais. 3.1 – Exemplos de aplicações Multimídias

Alguns exemplos de aplicações multimídia são videoconferência, correio eletrônico multimídia, vídeo-sob-demanda e filme-sob-demanda. Estas aplicações são mostradas a seguir.

3.1.1 Videoconferência

A videoconferência tem como principal objetivo proporcionar uma comunicação de alta velocidade entre parceiros remotos, através da transmissão de áudio e vídeo, para melhorar o trabalho colaborativo. A videoconferência pode se dar entre duas partes, como no videofone, ou entre muitas partes, como na distribuição de vídeo, mas nas duas formas implica em comunicação bidirecional. As principais características da videoconferência são as seguintes:

• Grupos. Envolve pelo menos um grupo de pessoas em uma das localizações. Os participantes podem tanto estar em um escritório utilizando sistemas desktop quanto em salas de reuniões, mas em ambos os casos existirão muitas pessoas que devem aparecer. • Documentos. Geralmente é necessário que ocorra troca de documentos entre os participantes. Documentos podem estar na forma de papel, visível em um lugar tipo quadro-negro ou no formato eletrônico. • Comunicação de grupo. A quantidade de sistemas que podem participar depende se a conferência é simétrica ou assimétrica. Em uma conferência simétrica, as contribuições são balanceadas entre todos os participantes. Em conferências assimétricas, alguns participantes são menos ativos que outros, e pode ser suportada uma dúzia de participantes. • Compromisso entre resolução e movimento. Exceto no caso de existirem documentos, a resolução pode ser de média qualidade. • Qualidade de som. Este requisito é muito importante em videoconferência, pois a identificação de quem está falando em um dado momento ajuda os participantes a identificarem a parte ativa. Uma outra razão desta importância é que o som deve ter qualidade suficiente para ser amplificado por alto-falantes. 3.1.2 Correio eletrônico multimídia

O correio eletrônico é uma aplicação que permite aos usuários fazer a composição, troca, leitura, armazenamento, recuperação e manipulação de mensagens de computador. Estas mensagens são representadas em uma forma digital e manipuladas por computadores. Uma mensagem multimídia possui uma parte de áudio ou vídeo misturada com qualquer outro tipo de informação. O correio multimídia apareceu em 1992 com a adoção do padrão correio multimídia da Internet, chamado MIME (Multipurpose InternetMail Extensions). Em relação ao armazenamento, cada minuto de áudio, com o mais comum e menos eficiente esquema de codificação, requer 500Kbytes. Seqüências de vídeo para correio multimídia são geralmente de qualidade VCR e, no melhor caso de compressão, um minuto de vídeo requer 10Mbytes. Portanto, o tamanho do correio multimídia deve ser limitado. Seqüências de vídeo devem ser extremamente pequenas e as seqüências de áudio devem ser limitadas a poucas dúzias de segundos.

3.1.3 Telemedicina

Aplicação multimídia importante, especialmente em casos de emergência e localizações remotas. Em telemedicina, todos os dados de pacientes são registrados e armazenados eletronicamente. Instituições e equipamentos médicos são conectados através de uma rede multimídia. A telemedicina provê as seguintes funções: • Consulta instantânea com médicos especializados através do uso de áudio e vídeo de alta qualidade.

• Acesso a registros de pacientes em qualquer lugar e a qualquer momento por pessoal médico em caso de emergência. • Acesso a informações em todo o mundo tal como disponibilidade e necessidade de um tipo especial de sangue ou órgãos. 3.1.4 Vídeo-sob-demanda

O termo vídeo-sob-demanda, abreviado como VOD (Video-on-demand), engloba uma grande quantidade de aplicações onde os usuários podem requisitar o acesso a servidores de vídeo de imagens estáticas ou em movimento. Algumas características deste tipo de aplicação são citadas a seguir. • Vídeo-sob-demanda não diz respeito apenas a vídeo em movimento, também engloba a demanda a imagens estáticas. • A definição de VOD não especifica onde o servidor está localizado nem quem o opera. VOD pode ser um serviço corporativo provido em um site dentro de uma organização, bem como pode ser um serviço público. • A definição não especifica o nível de interação que o usuário pode se beneficiar, uma vez que a sessão esteja estabelecida. • VOD não implica em qualquer tipo específico de vídeo em movimento. Apesar do principal campo de aplicação ser a distribuição de filmes, aplicação de VOD cobrem todo tipo de seqüências de vídeo. • A definição diz que o usuário pode requisitar uma imagem ou figura em movimento a qualquer tempo, mas ela não diz que o usuário pode vê-la a qualquer tempo. 3.1.5 Filme-sob-demanda

Filme-sob-demanda, abreviado como MOD (Movie-on-demand), é um serviço público de vídeo-sob-demanda oferecido a usuários residenciais ou clientes de hotéis, onde o objeto acessado é um filme armazenado. O objetivo do MOD é substituir dois serviços convencionais com um produto melhorado. • O serviço pay-per-view (PPV). A melhoria seria o fato de se oferecer uma maior quantidade de filmes que possam ser escolhidos e que o usuário possa requisitar e assistir a qualquer momento. • O serviço de aluguel de fita de vídeo. A idéia é eliminar a busca e retorno da fita à locadora, eliminando a manipulação física da fita. Para filme-sob-demanda, uma qualidade equivalente a de videocassete VHS, requer uma taxa de transmissão de apenas 1,5Mbps, o que é compatível com a velocidade T1. Implementações existentes do padrão de compressão de vídeo MPEG-2 (Motion Picture Expert Group) operam a 6Mbps com uma qualidade ligeiramente superior a qualidade de TV de difusão. É esperado que se

consiga uma taxa na ordem de 4Mbps para este tipo de qualidade. Muitos operadores estão planejando canais de 6 ou 7Mbps para suas infra-estruturas. Várias técnicas de compressão podem ser usadas para TV digital com qualidade de difusão, mas o padrão MPEG-2 tem surgido como uma tecnologia geral, multi-vendedor. 4 – Requisitos da Comunicação .

Aplicações multimídia são caracterizadas por manipular mídia contínua e suportar uma variedade de mídias e seus relacionamentos temporais. Isto impõe novos requisitos aos sistemas de comunicação e sistemas-fim. As informações das aplicações distribuídas devem ser transmitidas através de uma rede. Para cada tipo de mídia existem requisitos de comunicação específicos. Para que uma sub-rede de comunicação possa transmitir dados de aplicações multimídia em tempo real e mídia contínua, ela deve disponibilizar alguns características de desempenho. As principais destas características são:

• Vazão. Quantidade de bits que a rede é capaz de transmitir em um determinado período de tempo. Algumas aplicações necessitam de uma capacidade de armazenamento e de banda passante muito grande, como mostra a tabela 4.1. • Retardo. Tempo gasto para a emissão do primeiro bit de um bloco de dados pelo transmissor e sua recepção pelo receptor. Um valor aceitável de retardo é dependente da aplicação. Áudio e vídeo digital são mídias contínuas dependentes do tempo, conhecidas como dinâmicas ou isócronas. Para que a apresentação destas mídias tenha uma qualidade razoável, as amostras de áudio e vídeo devem ser recebidas e apresentadas em intervalos regulares. • Variação do retardo. Variação no tempo do retardo de transmissão da rede. É um dos principais parâmetros para suportar mídias dependentes do tempo. Para uma boa apresentação de mídias contínuas, a variação do retardo deve ser muito pequena. Os requisitos de retardo e variação do retardo devem ser garantidos durante toda a sessão de comunicação. Grande parte das redes, protocolos de transporte, sistemas operacionais e escalonamento de discos atuais não fornecem tal garantia. Portanto, os hospedeiros e organização das redes atuais não são apropriados para aplicações multimídia. • Taxa de erros. Parâmetro que mede a capacidade da rede em termos de alteração, perda, duplicação ou entrega fora de ordem, dos dados. Em dados de áudio e vídeo pode-se tolerar algum erro ou perda, pois estes podem passar despercebidos pelo usuário. Quando são utilizadas técnicas de compressão, a taxa de erros permitida é menor, pois um erro em um bit pode causar erro de descompressão de muitos bits. Um outro parâmetro de medida de erro é a taxa de perda de pacote. O requisito para taxa de erros de pacote é mais rigoroso que para taxa de erros de bit, pois a perda de pacotes pode afetar a decodificação de uma imagem.

Aplicações Taxas de dados Kbits/sTelefone Digital 64

Rádio Digital 1024 Áudio CD 1411,2

DAT 1536 Vídeo ( VHS ) 54000 Vídeo ( TV ) 216000

HDTV 864000

Tabela 4.1 - Taxas de Bits de Aplicações de Áudio e Vídeo

Para suporte a aplicações de recuperação e de distribuição, os principais critérios exigidos de uma rede são: capacidade para comunicação de grupo e capacidade para fazer cache de documentos. Capacidade de comunicação de grupo. Capacidade da rede para replicar, em certos pontos internos, os dados emitidos por uma fonte. Dados replicados devem ser passados a frente para os receptores-fim, que são parte do grupo. Esta capacidade é desenvolvida para evitar ou minimizar que segmentos das redes sejam atravessados por múltiplas cópias dos mesmos dados. • Capacidade para fazer cache de documentos. Consiste, para o sistema local envolvido, em aguardar solicitações do usuário, atendê-las e manter uma cópia de parte específica da informação solicitada. Algoritmos apropriados mantêm apenas o sub-conjunto das partes que possuem a maior probabilidade de serem solicitadas pelos sistemas locais.Em relação às redes de comunicação, existem ainda duas características importantes no transporte de dados de aplicações multimídia. Estas características são: isocronismo e qualidade de serviço (QoS). Para o suporte a aplicações multimídia utilizando transmissão em tempo real, uma característica particularmente importante é a de isocronismo. O termo isocronismo refere-se ao processo onde os dados devem ser entregues dentro de certos limites de tempo. Por exemplo, streams multimídia requerem um mecanismo de transporte isócrono para assegurar que os dados sejam entregues tão rápido quanto eles são apresentados e assegurar que o áudio seja sincronizado com o vídeo. Aplicações isócronas, ou sensíveis ao tempo, tais como vídeo, requerem muita banda passante e baixo retardo fim-a-fim. Uma conexão de rede fim-a-fim é dita isócrona se a taxa de bits da conexão é garantida e se o valor da variação do retardo é também garantido e pequeno. Aplicações multimídia distribuídas são isócronas por natureza e portanto, possuem limitações de tempo.

A outra característica de rede importante, é a de Qualidade de Serviço (QoS). Dados multimídia requerem diversos requisitos de qualidade dos sistemas multimídia. Estes requisitos, dependendo da aplicação, muitas vezes são ditos rigorosos. O conceito de QoS é baseado no fato de que, nem todas as aplicações, necessitam do mesmo desempenho da rede pela qual estão trafegando. As aplicações podem indicar os seus requisitos específicos para a rede, antes de realmente ser iniciada a transmissão dos dados. QoS é uma medida de quão bom é um serviço, como apresentado para o usuário. É expressa em uma linguagem compreensível pelo usuário e manifesta, através de uma quantidade de parâmetros, valores subjetivos e objetivos.

Portanto, para que informações de aplicações multimídia possam ser transmitidas através de uma rede, com uma qualidade aceitável para o usuário, a rede deve atender, de maneira satisfatória, e de acordo com cada mídia, os seguintes requisitos: vazão, retardo, variação do retardo, taxa de erros, capacidade de comunicação de grupo, capacidade para fazer cache de documentos, isocronismo e garantias de QoS. 5 – Sistemas Multimídias

Um sistema multimídia oferece uma função ou um conjunto de funções particulares a uma aplicação multimídia. Uma aplicação multimídia é o uso específico, por um usuário ou grupo de usuários, de um dado sistema multimídia. Um exemplo de sistema multimídia é uma estação de trabalho equipada com dispositivos de áudio e vídeo. Um exemplo de função, ou aplicação multimídia, é uma videoconferência.Os sistemas multimídia distribuídos podem ser classificados em um número de classes. O ITU (International Telecommunications Union) identifica quatro classes básicas de serviços ou aplicações distribuídas. Estas quatro classes são: • Serviços conversacionais. Implicam a interação entre um usuário humano e outro usuário humano ou sistema. Esta classe inclui serviços interpessoais, como videoconferência e videofone. Inclui também serviços como televigilância e telecompras. • Serviços de mensagens. Cobrem a troca de dados multimídia que não são de tempo real ou assíncronos, através de caixas de correio eletrônico. • Serviços de recuperação. Cobre todos os tipos de acesso a servidores de informação multimídia. Tipicamente, o usuário envia um pedido para o servidor e a informação solicitada é entregue ao usuário em tempo real. Vídeo-sob-demanda é um exemplo deste serviço. • Serviços de distribuição. Cobrem serviços onde a informação é distribuída por iniciativa de um servidor. Um exemplo deste serviço é uma difusão de programa de TV. Existem alguns objetivos que um sistema multimídia deve atender.Estes objetivos são:

• O sistema deve ter recursos suficientes para suportar aplicações multimídia. • Cada subsistema deve ter tipos e quantidade de recursos para suportar

múltiplas aplicações simultaneamente. • Um sistema-fim deve estar apto a processar múltiplas aplicações. • Redes, servidores e dispositivos de armazenamento devem estar aptos a

suportar um número de sessões ou fluxos simultaneamente. • O sistema deve estar apto a utilizar os recursos disponíveis de maneira eficiente. Os recursos de um sistema são compartilhados por várias aplicações. Estes recursos devem ser compartilhados de uma maneira eficiente, tal que um número máximo de aplicações possa ser suportado com uma determinada quantidade de recursos.

• O sistema deve estar apto a garantir os requisitos de QoS das aplicações. Os recursos devem ser compartilhados eficientemente pelas diversas aplicações, e estas aplicações devem conseguir a qualidade de serviço requisitada. Portanto, um importante desafio para os sistemas multimídia é usar os recursos de uma maneira eficiente e ao mesmo tempo garantir a QoS para cada aplicação. • O sistema deve ser escalável. Uma arquitetura de comunicação deve ser escalável e extensível para conseguir fornecer aumento nos requisitos dos usuários e atender novas demandas. A escalabilidade refere-se a habilidade do sistema em adaptar-se a mudanças no número de usuários a serem suportados e a quantidade de informação a ser armazenada e processada.

A partir desta análise, pode-se concluir, portanto que, os sistemas de computação e comunicação multimídia devem suportar e prover o seguinte: compressão de dados para reduzir a demanda por espaço de armazenamento e banda de transmissão; um sistema operacional, protocolo de transporte e escalonador de disco direcionado para multimídia, que forneçam as garantias de retardo e variação de retardo apropriado; estações de trabalho de alto desempenho e redes de alta velocidade para manipular altas taxas de bits sob limitações de tempo; e mecanismos globais de especificação e garantia de QoS. 5.1 – Tipos de Redes Multimídias

Existem atualmente várias tecnologias de rede de longa distância disponíveis para transmissão de informações. Muitas delas são adequadas para transmissão de apenas um tipo de mídia, como por exemplo, texto ou voz. Muitas possuem baixa velocidade de transmissão e não fornecem suporte a transmissão em tempo real, nem garantias de qualidade de serviço. A tecnologia ATM possui todas estas características e aparece como forte candidata para dar suporte a transmissão de dados de aplicações multimídia com garantias de qualidade de serviço.

Redes multimídia devem ter uma grande capacidade de banda, prover garantias de QoS, usar eficientemente seus recursos, ser escalável e ter capacidade de fazer comunicação de grupo . A seguir são analisados alguns tipos de rede de longa distância em relação a adequação para transmissão de informação multimídia. Os tipos de redes analisados são: X.25, Frame Relay e SMDS (Switched Multimegabit Data Service) . • X.25. O protocolo X.25 foi desenvolvido para trabalhar com sistemas de transmissão lentos e de baixa qualidade. Ela implementa mecanismos pesados de detecção e recuperação de erro. Comutadores de uma rede X.25 implementam controle de fluxo e detecção de erro, bem como preservam o sequenciamento e a integridade dos pacotes de dados.X.25 é orientado a conexão e como tal, possui um alto potencial para suportar, ou abordar, isocronismo, pois pode reservar ou alocar recursos no estabelecimento da conexão. Na prática, muitos comutadores X.25 existentes realmente reservam recursos, mas não os alocam para circuitos virtuais e geralmente fazem reserva em excesso. Assim, grande parte da tecnologia X.25 implementada não pode prover garantia determinística nem estatística da taxa de bits. Em relação a taxa de bits, os comutadores atuais usualmente estão limitados a 2Mbps por linha de acesso. No que diz respeito a reserva de

banda passante, algumas redes X.25 fazem a previsão da declaração de uma classe de vazão no momento do estabelecimento da conexão. Muitos comutadores reservam banda passante logicamente, através do decréscimo de um contador, o que pode levar a um excesso na reserva. As redes X.25 não suportam a facilidade de comunicação de grupo. Pode-se concluir que X.25 é uma tecnologia respeitável, apesar de antiga, que pode suportar aplicações multimídia de baixa velocidade ou assíncronas. A tecnologia X.25 sofre devido a seus princípios e objetivos de projeto. Ela não escala facilmente e não é adaptada para aplicações que demandam isocronismo. • Frame Relay. O protocolo Frame Relay foi definido como um serviço de transporte de pacote para RDSI (Rede Digital de Serviços Integrados). Quando as redes Frame Relay foram introduzidas, o único serviço de longa distância similar existente era o X.25. Portanto, estes dois serviços são muito comparados. O formato dos blocos de Frame Relay é um dos formatos usados por X.25 e assim, Frame Relay transporta quadros X.25. No protocolo Frame Relay, foram excluídos o controle de fluxo, a checagem de sequência, e a detecção e correção de erro, presentes no X.25 .Frame Relay foi desenvolvido como um serviço para substituir a multiplexação síncrona por multiplexação estatística em comunicações de dados convencionais. Não foi definido para suportar transmissões isócronas em tempo real. Não foi desenvolvido para suportar aplicações multimídia de tempo real ou que demandem banda passante. No entanto, por ser orientado a conexão há uma facilidade de fazer alocação de recursos. Possui um serviço de comunicação de grupo definido, mas que raramente é implementado. • SMDS. Foi desenvolvido para suportar interconexão, em alta velocidade, de LANs (Local Area Networks) não orientadas a conexão. Não provê suporte explícito para transmissão em tempo real de áudio ou vídeo. A velocidade de acesso - atualmente 45Mbps e possivelmente 155Mbps - é apropriada para a maioria das aplicações multimídia, exceto para canais HDTV (High-Definition Television) simultâneos. Mais de seis canais de TV com qualidade de difusão podem ser suportados em uma interface de 45Mbps. Uma característica importante da tecnologia SMDS é ter um baixo retardo de transmissão, em torno de 10 ms. A variação deste retardo depende da escolha de implementação feita para a rede. SMDS possui a facilidade para fazer comunicação de grupo, o que fornece uma solução para fazer difusão de vídeo ou suportar serviços de vídeo-sob-demanda De acordo com o que foi mostrado, X.25, Frame Relay e SMDS não são adaptados para transmissão de informações de aplicações que requerem isocronismo. X.25 e Frame Relay também não são adaptados para transmissão de informações que demandem uma grande capacidade de banda passante. Os três protocolos não podem prover garantias de desempenho e foram definidos para transportar dados que não tenham características de tempo real. Estes exemplos de rede não devem ser considerados como bons candidatos para comunicações multimídia. • ΑΤΜ . As tecnologias mostradas na seção anterior possuem várias limitações para transmissão de dados em alta velocidade e de tráfego multimídia. Em relação a alta velocidade, os pacotes possuem tamanhos e campos variados, controle de fluxo baseado em mecanismos de janela torna a transmissão ineficiente e a correção de erros pode causar um congestionamento na rede. Em relação ao tráfego multimídia, algumas

tecnologias não possuem suporte a comunicação de grupo, não possuem capacidade de estabelecer conexões rápidas e também não possuem suporte para a definição de qualidade de serviço.

Em contraste a estas tecnologias surge a tecnologia ATM, que possui um tamanho de pacote (célula) fixo, não realiza controle de erros nos nós intermediários e permite a definição de parâmetros de QoS. ATM promete alcançar os cinco requisitos de rede, citados na seção anterior, para comunicações multimídia, e é potencialmente mais apropriado para este tipo de comunicação. ATM está sendo adotado pelo ITU-TS (International Telecommunication Union-Telecommunication Sector) como o mecanismo de multiplexação e comutação para B-ISDN (Broadband - Integrated Service Digital Network) e B-ISDN promete suportar tipos diferentes de aplicações.

A transmissão em uma rede ATM é orientada à conexão. Para estabelecer uma sessão fim-a-fim, deve ser executado o procedimento de estabelecimento de conexão e ao final, o procedimento de desconexão. No procedimento de conexão, o usuário deve informar à rede os endereços de origem e destino, bem como a QoS necessária para aquela conexão.

Existem várias razões pelas quais ATM é uma tecnologia apropriada para comunicações multimídia. As principais destas razões são: 1. Largura de Banda. ATM promete alta velocidade de acesso aos sistemas-fim. Estas velocidades de acesso são suficientes para qualquer tipo de aplicação multimídia com a tecnologia de compressão atual. 2. Flexibilidade e garantias de QoS. As redes ATM podem suportar aplicações com diferentes características de tráfego e requisitos de comunicação. Estes requisitos incluem largura de banda, limites de retardo e sensibilidade a erros. ATM é um esquema de multiplexação por divisão de tempo. As fatias de tempo não são assinaladas para uma conexão particular, o que permite fazer alocação dinâmica de banda para cada aplicação. O serviço orientado a conexão, provido pelo ATM, pode reservar recursos para garantir a QoS de cada aplicação. 3. Escalabilidade. ATM é um protocolo não dependente de banda passante e permite que qualquer aplicação, com diferentes requisitos de comunicação (especialmente banda), compartilhem a mesma UNI (User Network Interface). A banda passante para cada ponto de acesso não é afetada pelo número de usuários ativos conectados a rede. 4. Integração. O protocolo ATM pode suportar, simultaneamente, através da mesma UNI, múltiplas aplicações com diferentes características e requisitos. Isto implica em grande simplificação e economia sobre as soluções de rede atuais, específicas para cada tipo de aplicação. 5. Arquitetura. A topologia física de malha ponto-a-ponto utilizada na B-ISDN, provê mais banda passante dedicada para cada usuário, comparada com redes que utilizam meio compartilhado, como FDDI (Fiber Distributed Digital Interface) e DQDB (Dual Queue Dual Bus). Também permite que a mesma arquitetura seja desenvolvida como solução de rede tanto pública quanto privada, ambas executando essencialmente o mesmo protocolo. 6. Eficiência. ATM utiliza multiplexação estatística de banda passante para transmissão compartilhada. O ganho estatístico é significante quando as aplicações com tráfego em rajada são multiplexadas. Como uma grande quantidade das aplicações multimídia tende

a ter o tráfego em rajada, o ganho resultante da multiplexação estatística implica em um compartilhamento muito eficiente do custo de transmissão. 7. Comunicação de grupo. ATM permite que a técnica de comunicação de grupo seja implementada facilmente através da mudança de VCI (Virtual Channel Identifier) e VPI (Virtual Path Identifier) nos comutadores. 8. Versatilidade. ATM utiliza um mecanismo de multiplexação e comutação independente da taxa de bit, do tamanho da rede e do meio de transmissão. ATM está caminhando para uma tecnologia padrão para serviços locais, de espinha dorsal e de longa distância, público e privado. Esta uniformidade tem como objetivo simplificar o gerenciamento da rede, através da utilização da mesma tecnologia para todos os níveis de rede. 9. Padronização. ATM originou-se da necessidade por um padrão universal para permitir interoperabilidade de informação, independente do sistema-fim ou do tipo de informação. Com ATM, o objetivo é obter um padrão internacional. ATM é uma tecnologia que está emergindo direcionada por um consenso internacional e não pela visão ou estratégia de um único fabricante. Isso assegura o crescimento e compatibilidade do ATM.

Algumas diferenças existentes entre ATM e as tecnologias citadas na seção anterior são: cada conexão virtual ATM é estabelecida com uma classe de serviço particular, escolhida de um conjunto bem definido de classes possíveis; no momento que a conexão é estabelecida em ATM, várias características são definidas, como tipo de tráfego, retardo de transmissão, tolerância a variação de retardo de célula e qualidade de serviço; os mecanismos para estabelecimento de conexões virtuais, internamente, são definidos por um padrão, o que facilita a interconexão entre comutadores de fabricantes diferentes; não existe recuperação de erro de célula em conexões virtuais ATM. Células erradas, quando detectadas, são simplesmente descartadas.

ATM suporta uma quantidade de serviços que podem competir com serviços oferecidos por operadores de telecomunicações, tais como: • Serviços ATM que competem com serviços de dados convencionais. Conexões virtuais ATM comutadas, de baixa velocidade, a uma taxa de bit constante, competem com N-ISDN (Narrowband - Integrated Service Digital Network) e outros serviços baseados em circuitos e de velocidade média. Circuitos comutados, com taxa de bits variável competem com circuitos X.25. Circuitos ATM permanentes competem diretamente com circuitos alugados. • Serviços ATM que competem com novos serviços de comunicação. Circuitos permanentes com taxa de bits variável, a uma velocidade média, são similares a serviços Frame Relay públicos. O serviço ATM sem conexão corresponde na prática a serviços SMDS.

A tecnologia ATM, quando disponível fim-a-fim, como uma tecnologia desenvolvida para suportar várias classes de serviços, é a solução para suporte de aplicações multimídia digitais para longas distâncias.

A possibilidade de estabelecer conexões a altas velocidades, com uma variedade de níveis de garantia para taxa de bits e variação do retardo, devem satisfazer a maioria das aplicações. O retardo de transmissão típico de dois a uma dezena de milisegundos - excluído o retardo de propagação - é compatível com a maioria das aplicações. A taxa de

perda de célula de 10-8 a 10-10 é apropriada para todos os tipos de transmissão de tempo real de fluxos de áudio e vídeo.

A tecnologia ATM suporta uma grande variedade de serviços e aplicações e satisfazer uma série de necessidades de qualidade do usuário e objetivos de desempenho da rede. Esta tecnologia permite flexibilidade na escolha de taxas de conexão e permite a multiplexação estatística de fluxos de tráfego VBR (Variable Bit Rate). ATM fornece um serviço de transporte universal para redes digitais de serviços integrados de banda larga (B-ISDNs), que podem transportar voz, dados e vídeo.

No momento em que se opta por utilizar a rede IP para transporte de informações multimídia, o primeiro problema com que se defronta é que o protocolo IP é não orientado à conexão. Como garantir qualidade de serviço a uma transmissão, em que cada um de seus pacotes pode seguir rotas diferentes, com atraso variável e nível de confiabilidade, também, variável? Para resolver esse problema, o conceito de conexão é implementado através da criação de fluxos. Isso é feito realizando-se comutação de label ou tag ao invés de endereços IP. Um fluxo é, então, definido por uma seqüência de labels ou tags, à qual se associam parâmetros de qualidade de serviço. Isso é feito tanto no caso do MPLS (Multiprotocol Label Switching) como do Ipv6.

Pressupondo a existência de fluxos de informação em uma rede IP, a garantia de qualidade de serviços para as mídias de dados, voz e vídeo é conseguida de maneira análoga às redes ATM. São definidas, também, classes de serviços diferentes, empregando-se, por exemplo, DiffServ, às quais são associadas prioridades diferentes. A banda de transmissão pode ser reservada e vinculada a cada fluxo através do protocolo RSVP ( Resource Reservation Protocol). Por último, a confiabilidade é garantida, também, pela utilização de infra-estrutura de redes físicas, baseadas em fibra óptica e por protocolos de camadas superiores, como o próprio TCP ( Transmission Control Protocol).

Além da parte referente à comunicação, é importante que existam ambientes de desenvolvimento para aplicações multimídias. Nesse sentido, tem surgido sistema operacional com gerenciamento de recursos multimídia já embutidos como Windows XP e o próprio Linux, Windows Pocket e Embebed Linux para PDAs e EPOC para celulares e PDAs. Ou seja, a indústria de teleinformática tem se movimentado no sentido de oferecer para o mercado uma infra-estrutura de comunicação wireline e wireless que suporte o transporte de informações multimídia.

Cabem às empresas provedoras de soluções e serviços em ambientes distribuídos, como a própria Internet, conceber aplicações cada vez mais competitivas, fazendo uso desses recursos que começam a ser disponibilizados e devem tornar-se, amplamente acessíveis nas próximas décadas. Bibliografia- Ana Luiza B.P.B. Diniz –Um serviço de Alocação Dinâmica de Banda Passante em Redes ATM para suporte a Aplicações Multimídia. Tese de Mestrado - UFMG – 1998. Tereza C.M.B. Carvalho – Tecnologias Convergentes.