Nascida há 26 anos, a internet encurtou distâncias e facilitou globalmente o acesso à informação. Isso vem provocando grandes mudanças. Mas, não por acaso, sua estrutura expressa uma das características do mundo contemporâneo: o domínio dos Estados Unidos no cenário internacional como uma potência hegemônica. As denúncias de espionagem mostraram o enorme poder que o Estado norte-americano possui na rede mundial de computadores, e isso é uma marca sua desde o berço.
O surgimento da internet, nos anos 1960, está relacionada ao contexto da Guerra Fria, período do pós-guerra, entre 1945 e 1991, em que os Estados Unidos (EUA) e a União Soviética (URSS), liderando blocos ideológicos antagônicos, disputavam a hegemonia econômica e a influência política, militar, ideológica e até esportiva em todos os continentes.
O início da internet
No ambiente de tensão da época, crescia no Departamento de Defesa dos EUA a preocupação com o fato de que toda a comunicação das Forças Armadas norte-americanas estava centralizada em um único computador, no complexo do Pentágono, em Washington. Para evitar que o sistema militar pudesse entrar em colapso na hipótese de um ataque soviético, um órgão ligado ao Departamento de Defesa, a Agência de Projetos em Pesquisas Avançadas (Arpa, na sigla em inglês), desenvolveu um projeto de interligação de computadores de várias universidades norte-
americanas. Essa rede, sem um centro definido, foi batizada de Arpanet, e entrou em operação em 1969. No decorrer da década seguinte, seu alcance se expandiu para outras universidades, com uma capacidade de transmissão e troca de informações ainda pequena, baseada no uso de telefones analógicos.
A partir dos anos 1980, com o desenvolvimento da fibra óptica, as possibilidades de conexão melhoram muito, abrindo espaço para a viabilização de uma rede de uso civil mais ampla. Paralelamente, crescia o número de computadores pessoais. Entre 1987 e 1997, o número de PCs conectados no planeta saltou de 10 mil para 10 milhões.
Além dos avanços na transmissão de informações, a padronização da forma de troca de dados foi fundamental para expandir a rede. Em 1989, o engenheiro inglês Tim Berners-Lee, do Centro Europeu de Pesquisa Nuclear (Cern), criou um padrão para organizar informações em texto e imagem: o formato de hipertexto (textos conectados através de links) foi responsável por manter as informações interligadas e permitir a consulta de dados em outros documentos sobre o mesmo assunto. É a origem do http, abreviação em inglês para “protocolo de transferência de hipertexto”.
Ainda no início da década de 1990, Berners-Lee lança a “world wide web, ou www” – a rede mundial de computadores –, que logo se transforma no sistema pelo qual circulam as informações organizadas em hipertexto em todo o planeta. O impulso que faltava para a disseminação da internet vem com o surgimento de programas específicos de navegação pela rede para computadores pessoais, como o Netscape (1994) e o Explorer (1995).
Entre o fim dos anos 1990 e o início do século XXI, a expansão da internet é marcada principalmente pelo crescimento dos sites de busca, que vasculham a rede por meio de seus algoritmos (veja box na página ao lado) atrás de assuntos de interesse do internauta e os apresentam por ordem de relevância, segundo critérios nem sempre claros. O Google, criado por Sergey Brin e Larry Page em 1998, em poucos anos passou a dominar o segmento de ferramentas de buscas.
À medida que a internet se expande, amplia-se sua estrutura física, com cabos transoceânicos, servidores e provedores, boa parte deles mantidos em território norte-americano. A partir de meados da década de 2000, um novo tipo de site começa a conquistar espaço com o lançamento do MySpace (2003), do Orkut (2004), do Facebook (2004) e do Twitter (2007). É o início da expansão das redes sociais, sites em que os internautas cadastram amigos e formam teias de relacionamento. Lançado por Mark Zuckerberg, um estudante da Universidade Harvard, o Facebook disputa atualmente com o Google o título de site mais acessado do planeta.
Outro tipo de sites são os chamados colaborativos, em que o conteúdo é construído pelos próprios usuários da rede de forma pública e gratuita, como a Wikipedia, criada em 2001. Foi por meio do site colaborativo WikiLeaks, criado e dirigido pelo australiano Julian Assange, que foram divulgados documentos secretos dos EUA com interesse político global: dezenas de milhares de documentos sigilosos da diplomacia do país enviados para o site revelaram segredos sobre guerras, negociações secretas e avaliações sobre outros países, entre muitos assuntos. A divulgação causou crises não só no governo norte-americano, mas, pela gravidade das questões tratadas, em muitos outros, incluindo o brasileiro. Perseguido por vários governos, Assange acabou se refugiando na embaixada do Equador em Londres desde junho de 2012, e, assim como Snowden, pode ser julgado por espionagem, fraude e abuso de informação, caso seja extraditado para os Estados Unidos.
Paradoxalmente, as autoridades norte-americanas teriam retirado informações privadas sobre internautas do mundo todo nas grandes empresas de tecnologia, como Google, Facebook, Microsoft, Yahoo!, America Online (AOL) e Apple, sob o pano da defesa da segurança nacional.
Terra sem lei
Cerca de um terço da humanidade atualmente usa a internet: são mais de 2 bilhões de pessoas. Com tanta gente conectada em uma rede que existe há poucos anos e cresce numa velocidade espantosa, abriu-se um grande terreno para o lazer, os negócios, a educação e a cultura, mas também para atividades ilegais e criminosas. Ainda não houve tempo para que as leis deem conta dessa nova realidade. Não houve tempo nem para um consenso amplo sobre tudo o que é ou não lícito, moral ou ilegal em termos virtuais. De certa forma, todos ainda estão aprendendo a se relacionar com esse novo ambiente.
O comércio ilegal de armas ou a pedofilia é crime na internet ou fora dela. Violar a privacidade alheia era ilegal há 30 anos, e continua sendo agora. As leis existem, mas têm de ser aprimoradas para se adequarem à nova realidade.
A preocupação com esse problema é internacional. Vários países apresentaram, recentemente, a ideia de avançar em uma regulamentação global para o uso da rede de computadores, temerosos com a violação da privacidade de internautas, a facilidade para articulação de ações criminosas e a possibilidade de espionagem em larga escala.
A União Europeia enviou a governos de todo o mundo, em fevereiro de 2014, uma proposta para a restruturação da internet visando a reduzir o poder dos EUA na rede. O intuito é descentralizar a organização responsável pela distribuição de domínios na rede, a Corporação para Atribuição de Nomes e Números na Internet (Icann), com sede nos EUA, e transformá-la num órgão internacional. A Icann é uma entidade sem fins lucrativos, subordinada ao governo norte-americano, e segue as leis do país. Para administrar a internet, os europeus querem o fortalecimento de entidades globais e a criação de novos organismos multilaterais.
No Brasil, o debate sobre as regras da internet ganhou força em 2013, com a tentativa de aprovação na Câmara dos Deputados do chamado Marco Civil da Internet, uma espécie de Constituição do setor. Após iniciativa do Ministério da Justiça, o Projeto de Lei nº 2.126 foi apresentado à Câmara dos Deputados em agosto de 2011. Sua aprovação virou prioridade para o governo federal a partir de junho de 2013, quando estourou a denúncia de espionagem dos Estados Unidos: nesse momento, a aprovação do Marco Civil virou uma forma de o governo brasileiro reagir à situação. No final de 2013, foram incluídos no projeto artigos que obrigam grandes sites e provedores de acesso à internet a manter centros de dados em território nacional para armazenar por aqui as informações sobre a navegação dos brasileiros. A ideia é dificultar o monitoramento de outros países, principalmente dos EUA.
Logo, a proposta foi criticada por sua eficácia duvidosa, pois mesmo empresas internacionais que já armazenam dados em nosso país replicam essas informações em servidores no exterior. De fato, acabar com atos de espionagem seria difícil, mas a simples obrigatoriedade de armazenar dados no Brasil poderia levar as empresas que atuam no país a responder à Justiça brasileira, caso aconteçam vazamentos de informações.
Neutralidade na rede
Se o armazenamento de dados entrou no debate do Marco Civil de última hora, outro ponto causou polêmica desde o início da elaboração da lei. Trata-se da definição sobre a neutralidade na rede, questão que envolve as formas de cobrança que podem fazer as empresas que oferecem acesso à internet – principalmente as telefônicas.
Pressionadas a investir em melhorias na infraestrutura e vendo usuários consumirem dados cada vez mais pesados – como vídeos e serviços de voz –, as teles passaram a estudar cobranças pelo tipo de conteúdo que o usuário utiliza, e não só de acordo com a velocidade de conexão, como ocorre hoje. Elas planejam desenhar pacotes que poderiam, nos modelos mais simples, oferecer acesso só a e-mails e redes sociais, restringindo a navegação. “Quem usa mais deve pagar mais, como ocorre com a água e com a luz”, afirmou Eduardo Levy, do Sindicato Nacional das Empresas de Telefonia, em debate na Câmara dos Deputados em novembro de 2013. Principal ponto defendido pelo governo no projeto de lei, a neutralidade serviria para impedir esse tipo de cobrança, garantindo que todos os conteúdos e usuários da internet sejam tratados da mesma maneira – em outras palavras, de forma neutra.
Para os defensores da neutralidade – incluindo órgãos de defesa do consumidor –, a cobrança por tipo de conteúdo provocaria exclusões no ambiente da web, impedindo que a população de baixa renda tenha acesso aberto à rede. Também abriria a possibilidade para um controle do conteúdo disponível para os internautas: portais e sites maiores poderiam fechar acordos comerciais com as teles para obter prioridade na circulação de seus serviços dentro dos pacotes oferecidos. Em defesa do conceito de neutralidade da rede, também no debate na Câmara dos Deputados, Demi Getschko, membro do Comitê Gestor da Internet no Brasil (CGI.br), usou uma analogia: “Não há nada de anormal na neutralidade. Os elevadores de um prédio são neutros. Os moradores do local pagam a mesma taxa de condomínio, independentemente do número de vezes que utilizam o serviço”.
A neutralidade da rede e o armazenamento de dados são os temas que mais geraram polêmicas nas discussões do Marco Civil – que prosseguiam no Congresso no começo de março de 2014. Mas a nova legislação não se resume a isso. Ela servirá também para tornar mais claros conceitos envolvendo a liberdade de expressão na internet – podendo isentar sites e portais por conteúdos postados por terceiros, como comentários de internautas – e o direito à privacidade – garantindo a inviolabilidade e o sigilo sobre as informações dos usuários, que só poderiam ser quebrados por ordem judicial.
Como funciona um algoritmo?
Para fazer essa interação entre homem e máquina, foram desenvolvidas as linguagens de programação, que usam uma ferramenta lógica: os algoritmos. Um algoritmo nada mais é do que uma receita passo a passo dos procedimentos necessários para a resolução de uma tarefa. Em termos mais técnicos, é uma sequência lógica e definida de instruções a serem seguidas para resolver um problema ou executar uma tarefa.
#sergiorbtorres
Forte abraço,
Prof. Sérgio Torres
"Participar do Grupo de Física é demais " – apenas
180,00 reais mensais você tem direito a todas as apostilas com milhares de
questões resolvidas e tira dúvidas
através do Skype, tudo diretamente com o professor.
Baixe o aplicativo SKYPE e inclua seu professor em (fisicaseculo21)
organize um horário para ter aulas particulares e tirar suas dúvidas – Não
acumule dúvidas e não deixe para a última hora – acesse o canal e tenha acesso
diretamente com seu professor.
O primeiro passo é entrar o grupo aberto de física e a partir
deste obter todas as informações pertinentes:
https://www.facebook.com/groups/cursodefisica/
Nenhum comentário:
Postar um comentário
Seu comentário é muito importante
Obrigado
Prof. Sérgio Torres