AD (728x90)

Mostrando postagens com marcador Central de Ajuda. Mostrar todas as postagens
Mostrando postagens com marcador Central de Ajuda. Mostrar todas as postagens

O que é Android ?

Ola Hoje Vamos Falar Sobre um novo sistema operacional o Android é um sistema operacional móvel que roda sobre o núcleo Linux, embora por enquanto a sua versão do núcleo Linux divirja da versão oficial. . Foi inicialmente desenvolvido pelo Google e posteriormente pela Open Handset Alliance, mas a Google é a responsável pela gerência do produto e engenharia de processos. O Android permite aos desenvolvedores escreverem software na linguagem de programação Java controlando o dispositivo via bibliotecas desenvolvidas pela Google. Em Janeiro de 2012, existiam mais de 400 mil aplicações disponíveis para Android

Em julho de 2005 a Google adquiriu a Android Inc., uma pequena empresa em Palo Alto, California, USA.No tempo da Google conduzido por Andy Rubin, foi desenvolvida uma plataforma de telefone móvel baseado em Linux, com o objetivo de ser uma plataforma flexível, aberta e de fácil migração para os fabricantes.

Mais especulações que a Google estava entrando no mercado de telefones móveis surgiram em Dezembro de 2006, com as noticias da BBC e The Wall Street Journal sobre a Google estar disposta a entrar no mercado de buscas e aplicações para telefones móveis e trabalhar duro para isso. A imprensa reportou rumores de um telefone desenvolvido pelo Google. Atualmente, é desenvolvido em parceria com a empresa de Software, Sun corp.

O primeiro telefone comercialmente disponível a rodar no sistema Android foi o HTC Dream, lançado a 22 de outubro de 2008.

Em 27 de maio de 2010 Matias Duarte, antigo diretor da interface do WebOS, junta-se à equipa do Android após a compra da Palm pela HP

O primeiro tablet comercialmente disponível a rodar o sistema operativo Android 3.0 foi o Motorola Xoom, lançado em 5 de janeiro de 2011 nos Estados Unidos.

Reprodução
Características
Com o lançamento do SDK, características e especificações para o Android são facilmente distribuídas.

Handset layouts
A plataforma é adaptada tanto para dispositivos VGA maiores, gráficos 2D, bibliotecas gráficas 3D baseadas em OpenGL ES especificação 2.0 e os layouts mais tradicionais de smartphones,

Armazenamento
É utilizado SQLite para armazenamento de dados,

Mensagens
Tanto SMS como MMS são formas disponíveis de envio de mensagens.

Navegador
O navegador disponível no sistema é baseado no framework de Código aberto conhecido como WebKit.

Máquina virtual Dalvik
Aplicações escritas em Java são compiladas em bytecodes Dalvik e executadas usando a Máquina virtual Dalvik, que é uma máquina virtual especializada desenvolvida para uso em dispositivos móveis, o que permite que programas sejam distribuídos em formato binário (bytecode) e possam ser executados em qualquer dispositivo Android, independentemente do processador utilizado. Apesar das aplicações Android serem escritas na linguagem Java, ela não é uma máquina virtual Java, já que não executa bytecode JVM.

Multimídia
O sistema irá suportar formatos de áudio e vídeo como: MPEG-4, H.264, MP3, e AAC.

Suporte Adicional de Hardware
O Android é totalmente capaz de fazer uso de câmeras de vídeo, tela sensível ao toque, GPS, acelerômetros, e aceleração de gráficos 3D.

Ambiente de desenvolvimento (SDK)
Inclui um emulador, ferramentas para debugging, memória e análise de performance. O Eclipse (IDE) (atualmente 3.4 ou 3.5) poderá ser utilizado através do plugin Android Develpment Tools (ADT).

Versões
As diferentes versões de Android têm desde a versão 1.5, nomes de sobremesas ou bolos (em inglês) e seguem uma lógica alfabética:

* 1.5: Cupcake (Abril de 2009, com a última revisão oficial a maio de 2010)
* 1.6: Donut (Setembro de 2009, com a ultima revisão oficial a maio de 2010)
* 2.1: Eclair (Janeiro de 2010, com a última revisão oficial a maio de 2010)
* 2.2: FroYo (Frozen Yogourt - Maio de 2010, com a última revisão oficial a julho de 2011)
* 2.3-2.4: Gingerbread (versão atual lançada a 6 de dezembro de 2010)
* 3.0-3.2: Honeycomb (Lançada especialmente para tablets em Janeiro de 2011)
* 4.0: Ice Cream Sandwich (Anunciada oficialmente em 19 de outubro de 2011)

 Licenciamento
Com a exceção de breves períodos entre atualizações, o Android está disponível como código aberto desde 21 Outubro de 2008. A Google publicou todo o código sob a licença Apache.



Via: Wikipedia - Foto: Reprodução 

Qual é diferença entre um site e blog?

Ola Hoje vou ensinar a vocês qual e a diferença entre um blog e um site ,Para muita gente site e blog é a mesma coisa, mas na prática podemos observar que há algumas diferenças que podem ser facilmente percebidas.

Particularmente eu gosto mais de blog (mesmo? que novidade!), mas entendo que muitas pessoas ainda estão ligadas no modelo tradicional, ou seja, os sites.

As diferenças entre sites e blogs apresentadas aqui se refere ao meu ponto de vista apenas, portanto outras definições poderão ser perfeitamente aceitas também.

Site
A “World Wide Web” (que significa “rede de alcance mundial” e também é conhecida como Web ou WWW) surgiu no final de 1990 por Tim Berners-Lee e Robert Cailliau. Juntos eles criaram um sistema de documentos em hipermídia que são interligados e executados na Internet. Os documentos podem estar na forma de texto, vídeos, sons, hipertextos e figuras.

* É o modelo tradicional de páginas web.
* Normalmente tem a home page, um ponto inicial para outras páginas.
* A comunicação com o leitor normalmente é feita via email.
* Necessita-se de conhecimento mínimo em HTML.
* A definição de conteúdo é trabalhosa, pois os clientes entendem que o site é algo muito formal. Em muitos casos definir textos para sites, por exemplo, é muito trabalhoso.
* A atualização é feita em períodos longos.
* Muitos sites parecem a CNN ou a BBC pelo grau de formalidade que tem.

Blog
De acordo com pesquisadores da história da internet, o 1º blog surgiu em 1997, feito por Jorn Barger*. Ele foi o pioneiro ao criar um sistema onde uma pessoa poderia escrever tudo o que quisesse, com frequência e contendo espaço para comentários. Para esse sistema, deu o nome de Weblog. É claro que, como sempre, o termo oficial não “pegou” e as pessoas pronunciavam de formas variadas, até que um homem, Peter Merholz, achou interessante partir em duas palavras “we-blog” (nós “blogamos”) que logo foram encurtadas para uma só – BLOG.

* Expressa a opinião do autor apenas, Não é uma CNN!
* O conteúdo pode ser discutido (comentários), às vezes classificado. (por motivos particulares decidi não abrir meu blog para comentários).
* A atualização é constante e em muitos casos diário (tenho um blog que foge desta regra, o http://www.evangelizacao.blog.br/ pois o seu conteúdo não muda e por isto cada post que é feito ali não perderá seu valor com o passar do tempo).
* A linguagem adotada é mais light e menos formal.
* O modelo estrutural também é diferente, no blog temos várias páginas empilhadas, podendo navegar entre elas sem precisar ficar voltando.
* Completando o item anterior, no site o modelo de navegação e vai e volta, no blog e próximo, próximo, etc.
* O conteúdo pode ser classificado por categoria, data ou tags.
* Cada página ou assunto é chamado de "post" de postar.
* Geralmente tem um foco muito bem definido, tem blogs sobre esportes, tecnologia, saúde, política, etc.
* O autor do blog normalmente é identificado e conhecido, tornando mais humano a relação autor e leitor.
* Não precisa de conhecimento de tecnologia para criar um blog, qualquer pessoa pode criar um com alguma facilidade, apesar de algumas situações requerem certo grau de conhecimento.

Via: Redação - Foto: Reprodução 

O que é Site ?



Ola hoje vamos falar sobre um assunto munto importante mais nem todos sabem o que é, o que e um site ?

Um website, site, saite, sítio eletrônico (português brasileiro) ou sítio, sítio eletrônico/web/da internet (português europeu) é um conjunto de páginas web, isto é, de hipertextos acessíveis geralmente pelo protocolo HTTP na Internet. O conjunto de todos os sites públicos existentes compõe a World Wide Web.

As páginas num site são organizadas a partir de um URL básico, ou sítio, onde fica a página principal, e geralmente residem no mesmo diretório de um servidor. As páginas são organizadas dentro do site numa hierarquia observável no URL, embora as hiperligações entre elas controlem o modo como o leitor se apercebe da estrutura global, modo esse que pode ter pouco a ver com a estrutura hierárquica dos arquivos do site.

Alguns sites, ou partes de sites, exigem uma subscrição, com o pagamento de uma taxa, por exemplo, mensal, ou então apenas um registo gratuito. Os exemplos incluem muitos sites pornográficos, partes dos sites de notícias, sites que fornecem dados do mercado financeiro em tempo real e a Enciclopédia Britânica.

Quando a World Wide Web foi criada no CERN, ela recebeu esse nome de seu criador Tim Berners-Lee. Ele comparou a sua criação com uma teia, "web" em inglês. Cada nó dessa teia é um local (virtual) onde há hipertextos. Como a palavra inglesa para local é site (também derivada do latim situs: "lugar, local"), quando as pessoas queriam se referir a um local da teia, elas falavam, web site. Assim um novo nome surgiu para designar esse novo conceito de nó onde há um conjunto de hipertextos: Web site.

Batizada desta forma, a Web e seus Web sites tornaram-se mundialmente famosos e seus nomes empregados em diversas línguas. Em inglês foi necessário usar o qualificativo Web antes de site, para diferenciar de outros usos que a palavra site tem nesta língua, onde significa local. Mas quando o contexto deixava claro que se estava falando da Web, dizia-se apenas "site". Já na língua portuguesa, esse qualificativo não é necessário em momento algum, pois a palavra site é um anglicismo novo em nosso vocabulário e tem o único e mesmo significado de Web site, embora a grafia induza a erro, pois pronuncia-se saite.

A palavra site em inglês tem exatamente o mesmo significado de sítio em português, pois ambas derivam do latim situs ("lugar demarcado, local, posição") e, primariamente, designa qualquer lugar ou local delimitado (sítio arquitetônico, sítio paisagístico, sítio histórico, entre outros). No português do Brasil, a palavra sítio designa, com maior frequência, uma propriedade rural de área modesta, frequentemente usada para lazer ou lavoura.

Porém, em inglês, surgiu o termo website (às vezes web site) para designar um sítio virtual, um conjunto de páginas virtualmente localizado em algum ponto da Web. Acontece que, com poucos anos de uso, o termo website ganhou a forma abreviada site, que passou a ser uma segunda acepção do termo original. Site, portanto, em inglês, passou a designar alternativamente um lugar real (no campo) ou virtual (na Web).

Em português, surgiram três vertentes para a tradução do conceito. A mais difundida em Portugal respeita a dualidade do termo original, e traduz site por sítio - ou, se o contexto não for suficiente para o entendimento, por sítio na Internet, sítio eletrónico, sítio na Web, sítio Web ou, ainda, websítio (exatamente como no inglês). A segunda vertente, mais comum no Brasil, adotou simplesmente o estrangeirismo site, sem alterações, para se referir aos sítios virtuais, mantendo sítio para os reais. A terceira vertente, que tem entre seus adeptos o escritor brasileiro Millôr Fernandes, é saite, que tem como vantagens a identificação imediata com a palavra usada em inglês e a dispensa da grafia em itálico.

A pronúncia de site, tanto em inglês quanto em português, é /saIt/ pelo sistema SAMPA.

Visão geral
Um site normalmente é o trabalho de um único indivíduo, empresa ou organização, ou é dedicado a um tópico ou propósito em particular. É difícil dizer com clareza até onde vai um site dada a natureza de hipertexto da Web. Por exemplo, toda a Wikipédia forma um site, mas se as páginas Meta-Wikipédia são parte do mesmo site ou um site irmão, é uma questão aberta para debate.

Sites são escritos em, ou dinamicamente convertidos para HTML e acessados usando um software cliente chamado web browser ou navegador. Sites consistem de páginas HTML estáticas ou páginas criadas dinamicamente usando tecnologias como JSP, PHP ou ASP. Um site também requer um software conhecido como servidor web, como o Apache, o mais usado, ou o IIS. Frequentemente sites possuem também conteúdo armazenado em banco de dados (base de dados).

Plugins estão disponíveis para os browsers, o que os capacita a exibir objetos adicionais aos suportados nativamente. Exemplos incluem Flash, Shockwave, Silverlight e applets Java. O Dynamic HTML permite interatividade e modificação do conteúdo dentro da página sem precisar recarregar a página, usando principalmente o Document Object Model e JavaScript, suportado internamente pela maioria dos navegadores modernos.

Sites são restritos por limites de recursos (por exemplo, a largura de banda dedicada ao site). Sites muito grandes, como Yahoo!, Apple e Google, usam vários servidores e equipamentos de balanceamento de carga, como o Cisco Content Services Switch ou o F5 BigIP solutions.

Propósitos dos Sites
Os sites da Internet, em geral, podem ter os seguintes propósitos:

* Institucional: muitas empresas usam seus sites como ponto de contato entre uma instituição e seus clientes, fornecedores, etc. No caso de instituições comerciais, usam-se sites também para comércio eletrônico, recrutamento de funcionários etc. Instituições sem fins lucrativos também usam seus sites para divulgarem seus trabalhos, informarem a respeito de eventos etc. Há também o caso dos sites mantidos por profissionais liberais, para publicarem seus trabalhos.

* Informações: veículos de comunicação como jornais, revistas e agências de notícias utilizam a Internet para veicular notícias, por meio de seus sites. Jornalistas freelancer e indivíduos comuns também publicam informações na Internet, por meio de blogs e podcasts.

* Aplicações: existem sites cujo conteúdo consiste de ferramentas de automatização, produtividade e compartilhamento, substituindo aplicações de desktop. Podem ser processadores de texto, planilhas eletrônicas, editores de imagem, softwares de correio eletrônico, agendas, etc.

* Armazenagem de informações: alguns sites funcionam como bancos de dados, que catalogam registros e permitem efetuar buscas, podendo incluir áudio, vídeo, imagens, softwares, mercadorias, ou mesmo outros sites. Alguns exemplos são os sites de busca, os catálogos na Internet, e os Wikis, que aceitam tanto leitura quanto escrita.

* Comunitário: são os sites que servem para a comunicação de usuários com outros usuários da rede. Nesta categoria se encontram os chats, fóruns e sites de relacionamento.

* Portais: são chamados de "portais" os sites que congregam conteúdos de diversos tipos entre os demais tipos, geralmente fornecidos por uma mesma empresa. Recebem esse nome por congregarem a grande maioria dos serviços da Internet num mesmo local.

Instrumento de publicidade
O site é um dos instrumentos de publicidade mais eficientes que existem. Servem de apoio a campanhas de publicidade de outros meios de comunicação como o rádio, televisão, jornal, placas, folhetos, etc., podem constituir um empreendimento completo ou parcial prestando serviços, vendendo produtos ou simplesmente informando com custos reduzidos em relação ao negócio "não virtual".

É importante observar que os sites precisam estar referenciados em buscadores globais ou guia de busca local para que obtenham os desejados acessos. Sem eles, dificilmente um site seria acessado por novos usuários ou clientes.

Para relacionar um site em um buscador, o site precisa ter vários outros sites apontando para ele, a quantidade de ligações (links) apontando para um site e a importância dos sites que apontam para ele definem em que posição ele ficará no buscador.

Via: Redação - Foto: Reprodução

O que é Blog ?

Ola Hoje Vamos falar um tema que todos conhece (O QUE E UM BLOG) Um blog ou blogue (português europeu) (contração do termo inglês Web log, diário da Web) é um site cuja estrutura permite a atualização rápida a partir de acréscimos dos chamados artigos, ou posts. Estes são, em geral, organizados de forma cronológica inversa, tendo como foco a temática proposta do blog, podendo ser escritos por um número variável de pessoas, de acordo com a política do blog.

Muitos blogs fornecem comentários ou notícias sobre um assunto em particular; outros funcionam mais como diários online. Um blog típico combina texto, imagens e links para outros blogs, páginas da Web e mídias relacionadas a seu tema. A capacidade de leitores deixarem comentários de forma a interagir com o autor e outros leitores é uma parte importante de muitos blogs.

Alguns sistemas de criação e edição de blogs são muito atrativos pelas facilidades que oferecem, disponibilizando ferramentas próprias que dispensam o conhecimento de HTML. A maioria dos blogs são primariamente textuais, embora uma parte seja focada em temas exclusivos como arte, fotografia, vídeos, música ou áudio, formando uma ampla rede de mídias sociais. Outro formato é o microblogging, que consiste em blogs com textos curtos.

Em dezembro de 2007, o motor de busca de blogs Technorati rastreou a existência de mais de 112 milhões de blogs. Com o advento do videoblog, a palavra blog assumiu um significado ainda mais amplo, implicando qualquer tipo de mídia onde um indivíduo expresse sua opinião ou simplesmente discorra sobre um assunto qualquer.

História
O termo weblog foi criado por Jorn Barger em 17 de dezembro de 1997. A abreviação blog, por sua vez, foi criada por Peter Merholz, que, de brincadeira, desmembrou a palavra weblog para formar a frase we blog ("nós blogamos") na barra lateral de seu blog Peterme.com, em abril ou maio de 1999.  Pouco depois, Evan Williams do Pyra Labs usou blog tanto como substantivo quanto verbo (to blog ou "blogar", significando "editar ou postar em um weblog"), aplicando a palavra blogger em conjunção com o serviço Blogger, da Pyra Labs, o que levou à popularização dos termos.

Origens
Antes do formato blog se tornar amplamente conhecido, havia vários formatos de comunidades digitais como o Usenet, serviços comerciais online como o GEnie, BiX e Compuserve, além das listas de discussão e do Bulletim Board System (BBS). Em 1990, softwares de fóruns de discussão como o WebEx criaram os diálogos via threads.

O blog atual é uma evolução dos diários online, onde pessoas mantinham informações constantes sobre suas vidas pessoais. Estes primeiros blogs eram simplesmente componentes de sites, atualizados manualmente no próprio código da página. A evolução das ferramentas que facilitavam a produção e manutenção de artigos postados em ordem cronológica facilitaram o processo de publicação, ajudando em muito na popularização do formato. Isso levou ao aperfeiçoamento de ferramentas e hospedagem próprios para blogs.

Popularização
A mensagem passou a modelar o meio, quando no início de 2000, o Blogger introduziu uma inovação – o permalink, conhecido em português como ligação permanente ou apontador permanente – que transformaria o perfil dos blogs. Os permalinks garantiam a cada publicação num blog uma localização permanente - uma URL – que poderia ser referenciada. Anteriormente, a recuperação em arquivos de blogs só era garantida através da navegação livre (ou cronológica). O permalink permitia então que os blogueiros pudessem referenciar publicações específicas em qualquer blog.

Em seguida, hackers criaram programas de comentários aplicáveis aos sistemas de publicação de blogs que ainda não ofereciam tal capacidade. O processo de se comentar em blogs significou uma democratização da publicação, consequentemente reduzindo as barreiras para que leitores se tornassem escritores.

A blogosfera, termo que representa o mundo dos blogs, ou os blogs como uma comunidade ou rede social, cresceu em ritmo espantoso. Em 1999 o número de blogs era estimado em menos de 50; no final de 2000, a estimativa era de poucos milhares. Menos de três anos depois, os números saltaram para algo em torno de 2,5 a 4 milhões. Atualmente existem cerca de 112 milhões de blogs e cerca de 120 mil são criados diariamente, de acordo com o estudo State of Blogosphere.

Tipos -  Blogs pessoais
Os blogs pessoais são os mais populares, normalmente são usados como um gênero de diário com postagens voltadas para os acontecimentos da vida e as opiniões do usuário. Também são largamente utilizados por celebridades que buscam manter um canal de comunicação com seus fãs. Exemplos disso são os blogs de Marcelo Tas e Ivete Sangalo.

Blogs corporativos e organizacionais
Muitas empresas vêm utilizando blogs como ferramentas de divulgação e contato com clientes. A empresa líder em blogs pelo mundo é a Microsoft com um total de 4500 blogs.

Blogs de gênero
Por fim há blogs com um gênero específico, que tratam de um assunto dominado pelo o usuário, ou grupo de usuários. Estes são os blogs com o maior número de acessos. Sendo que eles podem apresentar conteúdos variados, como humorísticos, notícias, informativos ou o de variedades, com contos, opiniões políticas e poesias.

Artigos
Conhecidos também como post, a forma substantiva anglófona do verbo "postar", refere-se a uma entrada de texto efetuada num weblog/blog. As postagens são organizadas tradicionalmente de forma cronologicamente inversa na página, de forma que as informações mais atualizadas aparecem primeiro, ou colocada ao contrário, a postagem mais antiga aparece em primeiro, sendo opção do blogueiro.

Um artigo deve seguir a temática proposta pelo blog e, embora permita uma enorme liberdade opinativa, seu conteúdo está sujeito às mesmas regras legais de outras fontes, de modo que seu autor pode vir a ser responsabilizado juridicamente por aquilo que escreve.

Atualmente, a maioria dos blogs é compatível com o recurso de inserção de imagens, vídeos, áudio nos artigos.

Via: wikipedia - Foto: Reprodução 

O que é Web 2.0 ?



Web 2.0 é um termo criado em 2004 pela empresa americana O'Reilly Media  para designar uma segunda geração de comunidades e serviços, tendo como conceito a "Web como plataforma", envolvendo wikis, aplicativos baseados em folksonomia, redes sociais e Tecnologia da Informação.

Embora o termo tenha uma conotação de uma nova versão para a Web, ele não se refere à atualização nas suas especificações técnicas, mas a uma mudança na forma como ela é encarada por usuários e desenvolvedores, ou seja, o ambiente de interação e participação que hoje engloba inúmeras linguagens e motivações.


Alguns especialistas em tecnologia, como Tim Berners-Lee, o inventor da World Wide Web (WWW), alegam que o termo carece de sentido, pois a Web 2.0 utiliza muitos componentes tecnológicos criados antes mesmo do surgimento da Web.  Alguns críticos do termo afirmam também que este é apenas uma jogada de marketing (buzzword).

Histórico
O termo Web 2.0 foi usado pela primeira vez em Outubro de 2004 pela O'Reilly Media e pela MediaLive International como nome de uma série de conferências sobre o tema, popularizando-se rapidamente a partir de então. Tratou-se de uma constatação de que as empresas que conseguiram se manter através da crise da Internet possuíam características comuns entre si, o que criou uma série de conceitos agrupados que formam o que chamamos Web 2.0.

Conceitualização
A conceitualização dada neste artigo segue os princípios ditados por Tim O'Reilly, sabidamente o precursor do uso do termo em seu artigo de conceitualização (e também de defesa) do termo Web 2.0. Tim [4] define que:
Cquote1.svg "Web 2.0 é a mudança para uma internet como plataforma, e um entendimento das regras para obter sucesso nesta nova plataforma. Entre outras, a regra mais importante é desenvolver aplicativos que aproveitem os efeitos de rede para se tornarem melhores quanto mais são usados pelas pessoas, aproveitando a inteligência coletiva" Cquote2.svg
— Tim O'Reilly

As regras a que se refere O'Reilly já foram discutidas antes do surgimento do termo, sob outros nomes como infoware, the internet operating system e the open source paradigm shift e são produto de um consenso entre empresas como Google, Amazon, Yahoo e Microsoft e estudiosos da Web (como Tim O'Reilly, Vinton Cerf e Tim Berners-Lee  ) e da consolidação do que realmente traz resultado na Internet. Segundo Tim O'Reilly, a regra mais importante seria desenvolver aplicativos que aproveitem os efeitos da rede para se tornarem melhores quanto mais são usados pelas pessoas, aproveitando a inteligência coletiva.

Regras
O'Reilly sugere algumas regras  que ajudam a definir sucintamente a Web 2.0:

* O beta perpétuo - não trate o software como um artefato, mas como um processo de comprometimento com seus usuários.
* Pequenas peças frouxamente unidas - abra seus dados e serviços para que sejam reutilizados por outros. Reutilize dados e serviços de outros sempre que possível.
* Software acima do nível de um único dispositivo - não pense em aplicativos que estão no cliente ou servidor, mas desenvolva aplicativos que estão no espaço entre eles.
* Lei da Conservação de Lucros, de Clayton Christensen - lembre-se de que em um ambiente de rede, APIs abertas e protocolos padrões vencem, mas isso não significa que a idéia de vantagem competitiva vá embora.
* Dados são o novo “Intel inside” - a mais importante entre as futuras fontes de fechamento e vantagem competitiva serão os dados, seja através do aumento do retorno sobre dados gerados pelo usuário, sendo dono de um nome ou através de formatos de arquivo proprietários.

Web 2.0 e a programação
Começaram a desenvolver softwares que são usados pela Internet e vendidos não em pacotes, mas como serviços, pagos mensalmente como uma conta de água. Além disso, mudou-se a forma de fazer softwares. Para que tudo funcionasse bem na Internet, foi necessária a união de várias tecnologias (como AJAX) que tornassem a experiência do usuário mais rica, com interfaces rápidas e muito fáceis de usar.

Definiu-se então que quanto mais simples e modular a programação, melhor. Assim é fácil tirar ou acrescentar uma funcionalidade ou compartilhar uma parte do seu software com outro software. Os módulos podem ser reutilizados em diversos softwares ou compartilhados para serem usados por programas de terceiros. Metodologias e conceitos como o Getting Real e Agile tem-se popularizado entre as empresas que desenvolvem aplicativos ditos "Web 2.0".

Segundo estes princípios, os softwares são desenvolvidos de modo que fiquem melhores quanto mais são usados, pois os usuários podem ajudar a torná-los melhores. Por exemplo, quando um usuário avalia uma notícia, ele ajuda o software, a saber, qual notícia é a melhor. Da mesma maneira, quando um usuário organiza uma informação através de marcações, ele ajuda o software a entregar informações cada vez mais organizadas.
Interfaces com o utilizador

A Web 2.0 propõe uma experiência de uso semelhante à de aplicativos para desktop, freqüentemente fazendo uso de uma combinação de tecnologias surgidas no final da década de 1990, que incluem Web services APIs (1998), AJAX (1998), Web syndication (1997), entre outras. Estas tecnologias aumentaram a velocidade e a facilidade de uso de aplicativos Web, sendo responsáveis por um aumento significativo no conteúdo (colaborativo ou meramente expositivo) existente na Internet. Estas também permitiram que usuários comuns, que até então não possuíam conhecimentos necessários para publicar conteúdo na Internet - pela ausência de ferramentas de uso simplificado - publicassem e consumissem informação de forma rápida e constante. Notadamente têm-se os blogs e wikis como expoentes desta massificação. Permitiu ainda o desenvolvimento de interfaces ricas, completas e funcionais, sendo que alguns aplicativos Web, ainda em versão beta, são considerados por muitos como "desktops on-line", proporcionando ao usuário um ambiente de trabalho inteiramente baseado na WWW, acessível de qualquer computador com conexão à Internet.

De forma particular, o AJAX permite ao usuário não esperar que uma página Web se recarregue ou que o processo seja terminado para continuar usando o software. Cada informação é processada separadamente, de forma assíncrona, de forma que não é mais necessário recarregar a página a cada clique.

A Web é a plataforma, o software um serviço
Na Web 2.0 os softwares funcionam pela Internet, não somente instalados no computador local, de forma que vários programas podem se integrar formando uma grande plataforma. Por exemplo, os seus contatos do programa de e-mail podem ser usados no programa de agenda, ou pode-se criar um novo evento numa agenda através do programa de e-mail. Os programas funcionam como serviços em vez de vendê-los em pacotes. Estes serviços podem ser cobrados com uma mensalidade, como a sua conta de água.

Outro conceito da web 2.0 que interfere na programação chama-se "Beta perpétuo". Na web 2.0 acabaram-se os ciclos de lançamento de programas. Os programas são corrigidos, alterados e melhorados o tempo todo, e o usuário participa deste processo dando sugestões, reportando erros e aproveitando as melhorias constantes. Em oposição ao que acontece com softwares tradicionais, em caixas, com instaladores e dependentes de um sistema operacional, aplicativos Web podem ser atualizados de forma constante, linear e independente da ação do usuário final. No caso de atualizações de segurança e desempenho, por exemplo, o usuário da aplicação seria imediatamente beneficiado sem mesmo tomar conhecimento.

Na web 2.0 os programas são abertos, ou seja, uma parte do programa pode ser utilizado por qualquer pessoa para se fazer outro programa. São utilizadas APIs para deixar que outros sites utilizem partes dos seus dados nos serviços deles. Em vez de grandes servidores provendo uma enorme quantidade de arquivos, na web 2.0 descobriu-se as redes P2P, na qual cada usuário é um servidor de arquivos e os arquivos são trocados diretamente entre eles.

Web 2.0 e o conteúdo
O conteúdo dos websites também sofreu um enorme impacto com a Web 2.0, dando ao usuário a possibilidade de participar, geralmente gerando e organizando as informações. Mesmo quando o conteúdo não é gerado pelos usuários, este pode ser enriquecido através de comentários, avaliação, ou personalização.

Algumas aplicações Web 2.0 permitem a personalização do conteúdo mostrado para cada usuário, sob forma de página pessoal, permitindo a ele a filtragem de informação que ele considera relevante.

O conceito usado é comparável com o do software livre: se há muitas pessoas olhando, todos os erros são corrigidos facilmente. Para isso existem comunidades que se auto-moderam, através da participação dos usuários indicando ao sistema qual usuário não deve mais participar da comunidade.

Dentro dos princípios da Web 2.0 o conteúdo deve ser aberto, utilizando licenças como "Creative Commons" que flexibilizam os direitos autorais permitindo que o usuário reutilize (republicando, alterando ou colaborando) o conteúdo. O compartilhamento de informações deve dar ao usuário a possibilidade de reutilizá-lo.

Além do conteúdo editorial e noticioso, na web 2.0 o conteúdo de alguns sites visa gerar comunidades, seja através de sites de relacionamento, seja através de comentários em notícias e blogues.

Tag's, não taxonomia: o usuário organiza o próprio conteúdo.
A organização do conteúdo é feita também pelo próprio usuário sob forma de marcações, em contraste de uma taxonomia do sistema. Por exemplo, o aplicativo del.icio.us para guardar e compartilhar links favoritos criou o conceito de marcação de conteúdo. Em vez de criar pastas e categorias pré-definidas para o usuário escolher, cada usuário pode definir uma palavra-chave para um determinado conteúdo, assim, quanto mais usuários marcarem o conteúdo, melhor organizado ele será.

Consumer-Generated Media (CGM)
Consumer-Generated Media (CGM) ou mídia gerada pelo consumidor é um termo utilizado para descrever o conteúdo que é criado e divulgado pelo próprio consumidor. Com a popularização da Internet e o avanço das tecnologias digitais, da mesma maneira que o acesso dos consumidores à informação teve um aumento significativo, aumentou também a facilidade dos consumidores em expressar suas opiniões.

Na Internet o CGM está presente em comentários, fóruns, lista de discussões, blogs e fotologs, comunidades, grupos, sites participativos, no YouTube, na própria Wikipedia. Os consumidores utilizam todas as ferramentas disponíveis (Messenger, sites, blogs, e-mails, mensagens, celulares, etc.) para divulgar, sobretudo, suas experiências pessoais e opiniões em relação a produtos, serviços, marcas, empresas, notícias.

Assim como acontecia com o boca-a-boca, o CGM tende a ter um maior poder de influência sobre outros consumidores do que as mídias tradicionais (TV, rádio, jornais impressos), pois tendem a passar mais credibilidade. A diferença é que, com a tecnologia disponível, o impacto do CGM é muito maior que o “boca-a-boca”.

Algumas empresas já estão incentivando a prática do CGM junto aos seus consumidores. Outras estão contratando empresas especializadas para pesquisar o que os consumidores estão comentando sobre a sua marca, produto ou serviço.

Novas formas de lucrar
Surgem novas formas de ganhar dinheiro com a internet. Uma delas se chama Long Tail (A Cauda Longa). Uma loja virtual pode ter um catálogo muito grande, cheio de itens que vendem pouco e não valem a pena para lojas comuns que têm um alto custo para manter o produto na prateleira. Mas justamente por serem difíceis de ser encontrados em lojas comuns é que estes são os itens mais preciosos para quem gosta deles.

Por isso, o modelo de vendas na web 2.0 deve ter um sistema para fazer as pessoas descobrirem estes itens únicos do catálogo - por exemplo: “pessoas que compram este CD também compram…”. A venda de muitos itens que individualmente vendem pouco traz muito mais retorno financeiro que as vendas de produtos que individualmente vendem muito.

Outra forma de monetização da nova internet são os softwares como serviços. São programas que funcionam através da internet e são pagos mensalmente. Além destas duas, há outras como: a venda do conteúdo de um site que foi gerado pelos usuários, a venda de informações usadas para fazer um programa (ex. as fotos aéreas que são usadas no Google Maps) e venda de espaço para publicidade onde se paga somente quando o usuário clica no anúncio.

Via: Wikipédia - Foto: Reprodução 

O que é Computação em nuvem ?



O conceito de computação em nuvem (em inglês, cloud computing) refere-se à utilização da memória e das capacidades de armazenamento e cálculo de computadores e servidores compartilhados e interligados por meio da Internet, seguindo o princípio da computação em grade.

O armazenamento de dados é feito em serviços que poderão ser acessados de qualquer lugar do mundo, a qualquer hora, não havendo necessidade de instalação de programas x ou de armazenar dados. O acesso a programas, serviços e arquivos é remoto, através da Internet - daí a alusão à nuvem. O uso desse modelo (ambiente) é mais viável do que o uso de unidades físicas.

Num sistema operacional disponível na Internet, a partir de qualquer computador e em qualquer lugar, pode-se ter acesso a informações, arquivos e programas num sistema único, independente de plataforma. O requisito mínimo é um computador compatível com os recursos disponíveis na Internet. O PC torna-se apenas um chip ligado à Internet — a "grande nuvem" de computadores — sendo necessários somente os dispositivos de entrada (teclado, mouse) e saída (monitor).

Também a Computação em nuvem é uma tendência integrante da Web 2.0 de se levar todo tipo de dados de usuários - inclusive os próprios sistemas operacionais - a servidores online, tornando desnecessário o uso de dispositivos de armazenamento e possibilitando o compartilhamento de tal conteúdo com qualquer plataforma de acesso à web.

Corrida pela tecnologia
Empresas como Amazon, Google, IBM e Microsoft foram as primeiras a iniciar uma grande ofensiva nessa "nuvem de informação" (information cloud), que especialistas consideram uma "nova fronteira da era digital". Aos poucos, essa tecnologia vai deixando de ser utilizada apenas em laboratórios para ingressar nas empresas e, em breve, em computadores domésticos.

O primeiro serviço na Internet a oferecer um ambiente operacional para os usuários—antigamente, disponível no endereço www.webos.org—foi criado por um estudante sueco, Fredrik Malmer, utilizando as linguagens XHTML e Javascript. Atualmente, o termo AJAX é adotado para definir a utilização dessas duas linguagens na criação de serviços na Internet.

Em 1999, foi criada nos EUA a empresa WebOS Inc., que comprou os direitos do sistema de Fredrik e licenciou uma série de tecnologias desenvolvidas nas universidades do Texas, Califórnia e Duke. O objetivo inicial era criar um ambiente operacional completo, inclusive com API para o desenvolvimento de outros aplicativos.
Isso não inclui somente computadores, mas também notebooks, celulares e até iPods.

Já existem diversos serviços online que tentam aproximar as funções de um sistema operacional. Pode-se citar: eyeOS, Glide, DesktopTwo, e também plataformas para software online como o Google App Engine e o Microsoft Azure. Esses serviços oferecem recursos geralmente encontrados em computadores num ambiente online, tornando seu conteúdo totalmente portátil.

Via: Wikipedia Brasil - Foto: Reprodução 

O que é um Domínio ?



Ola hoje vamos falar sobre um assunto que todos falam mas não sabem o que é Domínio é um nome que serve para localizar e identificar conjuntos de computadores na Internet. 

O nome de domínio foi concebido com o objetivo de facilitar a memorização dos endereços de computadores na Internet. Sem ele, teríamos que memorizar uma sequência grande de números.

Pelas actuais regras, para que o registo de um domínio seja efectivado, são necessários ao menos dois servidores DNS conectados à Internet e já configurados para o domínio que está sendo solicitado.

O registo de domínios em Portugal é feito na Fundação para a Computação Científica Nacional (FCCN)[1]. No Brasil é feito pelo Registro.br, departamento do Núcleo de Informação e Coordenação do Ponto BR[2], braço executivo do Comitê Gestor da Internet no Brasil (CGI.br). Para registar um domínio, é necessário ser uma entidade legalmente representada ou estabelecida no Brasil como pessoa jurídica (Instituições que possuam CNPJ) ou física (CPF) que possua um contato em território nacional.

Uma entidade poderá registrar, sob uma extensão, quantos domínios quiser. Porém, não é permitido registrar o mesmo nome em diferentes DPNs genéricos. A restrição de homonímia não se aplica as extensões com restrições. Todos as extensões de domínio disponíveis, excetuando-se os restritos, são classificados como genéricos.

Exemplo: Uma entidade poderá registrar quantos domínios quiser sob COM.BR, ou sob IND.BR, mas, se possuir o domínio XXX.COM.BR, não poderá registrá-lo também em IND.BR. Ou seja, se tiver XXX.COM.BR não poderá registrar XXX.IND.BR, por se tratar de domínios genéricos. Já nada impede que, caso essa entidade preencha os requisitos para registrar sob TV.BR, registre também o XXX.TV.BR, porque TV.BR é um domínio com restrições próprias, às quais não se adicionam as restrições de homonímia.

A extensão NOM.BR é uma exceção à regra da homonímia. Por exemplo: pessoas físicas podem registrar XXX.ADV.BR, ZZZ.ENG.BR e XXX.ZZZ.NOM.BR, mas não podem registrar XXX.ADV.BR e XXX.ENG.BR.

Para resolução de conflitos no .BR foi instituído o Sistema de Arbitragem de Conflitos de Internet (SACI)[3], inicialmente adotado para nomes de domínios sob o NET.BR, que tornou-se genérico. Sempre que um detentor de domínio COM.BR optar por preservar o mesmo nome no domínio NET.BR, qualquer controvérsia que surja e seja atinente a esse registro será solucionada por meio do procedimento arbitral.

Informações de contato sobre um domínio podem ser obtidas por uma ferramenta chamada WHOIS. Através do WHOIS pode se obter os dados de contato Administrativo, Técnico e Cobrança e informações sobre a configuração de DNS de qualquer domínio na internet.
O que é um "domínio"?

Domínio é um nome que serve para localizar e identificar você ou sua empresa na Internet. O nome de domínio foi concebido com o objetivo de facilitar a memorização dos endereços de computadores na Internet. Sem ele, teríamos que memorizar uma sequência grande de números.

O domínio é a base de toda a sua identificação profissional na Internet. É o “sobrenome” do seu site e dos seus e-mails. Ele é composto por um nome e uma extensão, exemplo:

nomedaempresa.com.br

Nome: nomedaempresa
Extensão: .com.br

Contrário ao que alguns possam pensar, o “WWW” inicial não pertence ao domínio.
O WWW é o tipo de conteúdo da rede (imagens, textos e sons), sendo o conteúdo WWW o mais difundido.

Todos os domínios funcionam em qualquer local do globo. Caso você tenha um cliente na China ou no Japão, para acessar seu site, ele terá que digitar seu domínio da mesma forma que ele estivesse no Brasil.

O domínio é a base do seu e-mail profissional, é o quer fica à direita do @, por exemplo:

falecom@nomedaempresa.com.br

Pelas atuais regras, para que o registro de um domínio seja efetivado, são necessários a hospedagem do site, que oferece ao menos dois servidores DNS conectados à Internet e já configurados para o domínio que está sendo solicitado, para que você possa ter acesso a sua conta de e-mail e ao seu site na internet.

Quem pode registrar um domínio ?
O registro de domínios no Brasil é feito pelo site REGISTRO.BR do Comitê Gestor da Internet Brasileira, para domínios terminados em .br.
Para registrar um domínio, é necessário ser uma entidade legalmente representada ou estabelecida no Brasil como pessoa jurídica (Instituições que possuam CNPJ) ou física (CPF) que possua um contato em território nacional.

O registro de domínios no exterior (Ex: .com) pode ser feito por diversos orgãos internacionais e pode ser registrado por pessoas físicas (CPF).

Uma entidade poderá registrar, sob um extensão, quantos domínios quiser.

Qual a documentação necessária para o registro de um domínio ?

Pessoa Jurídica:
Para domínios com terminação .art.br, .esp.br, .g12.br, .etc.br, .ind.br, .inf.br, .psi.br, .rec.br, .tmp.br, .tur.br é necessário CNPJ.

.AM.BR - Exige-se o CNPJ e comprovante da ANATEL para Radiodifusão sonora AM;
.COOP.BR - Exige-se o CNPJ e comprovante de registro junto a Organização das Cooperativas Brasileiras;
.EDU.BR - Exige-se o CNPJ e a comprovação da atividade específica através de documento do MEC e algum documento que comprove que o nome a ser registrado não é genérico;
.FM.BR - Exige-se o CNPJ e comprovante da ANATEL para Radiodifusão sonora FM;
.G12.BR - Exige-se o CNPJ;
.GOV.BR - Exige-se o CNPJ e comprovação que a entidade pertence ao governo federal;
.MIL.BR - Exige-se autorização do Ministério da Defesa;
.NET.BR - Exige-se a comprovação desta atividade por documento específico mais o CNPJ;
.ORG.BR - Exige-se a documentação que comprove a natureza da instituição não governamental sem fins lucrativos e o CNPJ. Nos casos em que a instituição é um consulado ou uma embaixada, a exigência do CNPJ para esse DPN é dispensada;
.PSI.BR - Exige-se o CNPJ e comprovação que a entidade é provedora de acesso à Internet;
.TV.BR - Exige-se o CNPJ e comprovante da ANATEL para Radiodifusão de Sons e Imagens ou Operação de TV à cabo;

Pessoa Física:

Para domínios com terminação .com.br, .com, .net, arq.br, pro.br, adv.br, odo.br não é necessário o CNPJ, Para os demais exige-se somente a apresentação do número do CPF ao formulário de registro. A documentação pode ser solicitada posteriormente pelo registro caso seja necessária.

Posso registrar minha_cidade.GOV.BR ?

Não. Entidades dos governos estaduais e municipais registram-se abaixo de XX.GOV.BR, onde XX é a sigla do seu estado. Consulte quais são os contatos responsáveis pelo registro em cada um dos estados, através do sistema de pesquisa, executando a para o domínio XX.GOV.BR. Envie o pedido do registro para os responsáveis listados. Exemplo: Se for órgão do município de São Paulo, consulte: SP.GOV.BR

Qual a diferença entre .com.br e .com ?

Domínios .com.br são domínios de segundo nível controlados pelo orgão registro.br os domínios .com são domínios de primeiro nível controlados por diversos orgãos internacionais.

Via: Registro BR - Foto: Reprodução 

O que é Domain Name System (DNS)?



O DNS (Domain Name System - Sistema de Nomes de Domínios) é um sistema de gerenciamento de nomes hierárquico e distribuído operando segundo duas definições:

* Examinar e atualizar seu banco de dados.
* Resolver nomes de domínios em endereços de rede (IPs).


O sistema de distribuição de nomes de domínio foi introduzido em 1984, e com ele, os nomes de hosts residentes em um banco de dados pode ser distribuído entre servidores múltiplos, diminuindo assim a carga em qualquer servidor que provê administração no sistema de nomeação de domínios. Ele baseia-se em nomes hierárquicos e permite a inscrição de vários dados digitados além do nome do host e seu IP. Em virtude do banco de dados de DNS ser distribuído, seu tamanho é ilimitado e o desempenho não degrada tanto quando se adiciona mais servidores nele. Este tipo de servidor usa como porta padrão a 53.

A implementação do DNS-Berkeley, foi desenvolvido originalmente para o sistema operacional BSD UNIX 4.3

A implementação do Servidor de DNS Microsoft se tornou parte do sistema operacional Windows NT na versão Server 4.0. O DNS passou a ser o serviço de resolução de nomes padrão a partir do Windows 2000 Server como a maioria das implementações de DNS teve suas raízes nas RFCs 882 e 883, e foi atualizado nas RFCs 1034 e 1035.

O servidor DNS traduz nomes para os endereços IP e endereços IP para nomes respectivos, e permitindo a localização de hosts em um domínio determinado. Num sistema livre o serviço é implementado pelo software BIND. Esse serviço geralmente se encontra localizado no servidor DNS primário.

O servidor DNS secundário é uma espécie de cópia de segurança do servidor DNS primário.

Existem 13 servidores DNS raiz no mundo todo e sem eles a Internet não funcionaria. Destes, dez estão localizados nos Estados Unidos da América, um na Ásia e dois na Europa. Para Aumentar a base instalada destes servidores, foram criadas réplicas localizadas por todo o mundo, inclusive no Brasil desde 2003.

Ou seja, os servidores de diretórios responsáveis por prover informações como nomes e endereços das máquinas são normalmente chamados servidores de nomes. Na Internet, os serviços de nomes usado é o DNS, que apresenta uma arquitetura cliente/servidor, podendo envolver vários servidores DNS na resposta a uma consulta.

Um recurso da internet que atualmente, por exemplo um site da Web, pode ser identificado de duas maneiras: pelo seu nome de domínio[1], por exemplo, “www.wikipedia.org” ou pelo endereço de IP[2]dos equipamento que o hospedam (por exemplo, 208.80.152.130 é o IP associado ao domínio www.wikipedia.org). Endereços de IP são usados pela camada de rede para determinar a localização física e virtual do equipamento. Nomes de domínio, porém, são mais mnemônicos para o usuário e empresas. É então necessário um mecanismo para traduzir um nome de domínio em um endereço IP. Esta é a principal função do DNS.

Hierarquia
Devido ao tamanho da internet, armazenar todos os pares domínio - endereço IP em um único servidor DNS seria inviável, por questões de escalabilidade que incluem:

* Confiabilidade: se o único servidor de DNS falhasse, o serviço se tornaria indisponível para o mundo inteiro.
* Volume de tráfego: o servidor deveria tratar os pedidos DNS do planeta inteiro.
* Distância: grande parte dos usuários estaria muito distante do servidor, onde quer que ele fosse instalado, gerando grandes atrasos para resolver pedidos DNS.
* Manutenção do banco de dados: o banco de dados deveria armazenar uma quantidade de dados enorme e teria que ser atualizado com uma frequência muito alta, toda vez que um domínio fosse associado a um endereço IP.

A solução encontrada é fazer do DNS um banco de dados distribuído e hierárquico . Os servidores DNS se dividem nas seguintes categorias:

Servidores raiz (extraído de Servidor Raiz)
No topo da hierarquia estão os 13 servidores raiz. Um Servidor Raiz (Root Name Server) é um servidor de nome para a zona raiz do DNS (Domain Name System). A sua função é responder diretamente às requisições de registros da zona raiz e responder a outras requisições retornando uma lista dos servidores de nome designados para o domínio de topo apropriado. Os servidores raiz são parte crucial da internet por que eles são o primeiro passo em traduzir nomes para endereços IP e são usados para comunicação entre hosts.

Servidores de domínio de topo (Top-Level Domain)
Cada domínio é formado por nomes separados por pontos. O nome mais à direita é chamado de domínio de topo. Exemplos de domínios de topo são .com, .org, .net, .edu e .gov. Cada servidor de domínio de topo conhece os endereços dos servidores autoritativos que pertencem àquele domínio de topo, ou o endereço de algum servidor DNS intermediário que conhece um servidor autoritativo.
 Servidores autoritativos

O servidor autoritativo de um domínio possui os registros originais que associam aquele domínio a seu endereço de IP. Toda vez que um domínio adquire um novo endereço, essas informações devem ser adicionadas a pelo menos dois servidores autoritativos. Um deles será o servidor autoritativo principal e o outro, o secundário. Isso é feito para minimizar o risco de, em caso de erros em um servidor DNS, perder todas as informações originais do endereço daquele domínio.

Com essas três classes de servidores, já é possível resolver qualquer requisição DNS. Basta fazer uma requisição a um servidor raiz, que retornará o endereço do servidor de topo responsável. Então repete-se a requisição para o servidor de topo, que retornará o endereço do servidor autoritativo ou algum intermediário. Repete-se a requisição aos servidores intermediários (se houver) até obter o endereço do servidor autoritativo, que finalmente retornará o endereço IP do domínio desejado. Repare que essa solução não resolve um dos problemas de escalabilidade completamente: os servidores raiz tem que ser acessados uma vez para cada requisição que for feita em toda a internet. Esses servidores também podem estar muito longe do cliente que faz a consulta.

Além disso, para resolver cada requisição, são precisas várias consultas, uma para cada servidor na hierarquia entre o raiz e o autoritativo. Esta forma de resolver consultas é chamada não-recursividade: cada servidor retorna ao cliente (ou ao servidor local requisitante, como explicado adiante) o endereço do próximo servidor no caminho para o autoritativo, e o cliente ou servidor local fica encarregado de fazer as próximas requisições. Há também o método recursivo: o servidor pode se responsabilizar por fazer a requisição ao próximo servidor, que fará a requisição ao próximo, até chegar ao autoritativo, que retornará o endereço desejado, e esse endereço será retornado para cada servidor no caminho até chegar ao cliente. Esse método faz com que o cliente realize apenas uma consulta e receba diretamente o endereço desejado, porém aumenta a carga dos servidores no caminho. Por isso, servidores podem se recusar a resolver requisições recursivas.

Melhorias de Performance
Dois recursos são usados em conjunto para reduzir a quantidade de requisições que os servidores raiz devem tratar e a quantidade de requisições feitas para resolver cada consulta:

Cache
Toda vez que um servidor retorna o resultado de uma requisição para a qual ele não é autoridade (o que pode acontecer no método de resolução recursivo), ele armazena temporariamente aquele registro. Se, dentro do tempo de vida do registro, alguma requisição igual for feita, ele pode retornar o resultado sem a necessidade de uma nova consulta. Note que isso pode provocar inconsistência, já que se um domínio mudar de endereço durante o tempo de vida do cache, o registro estará desatualizado. Apenas o servidor autoritativo tem a garantia de ter a informação correta. É possível exigir na mensagem de requisição DNS que a resposta seja dada pelo servidor autoritativo.

Servidor Local
Esse tipo de servidor não pertence a hierarquia DNS, mas é fundamental para o seu bom funcionamento. Em vez de fazer requisições a um servidor raiz, cada cliente faz sua requisição a um servidor local, que geralmente fica muito próximo do cliente fisicamente. Ele se encarrega de resolver a requisição. Com o uso de cache, esses servidores podem ter a resposta pronta, ou ao menos conhecer algum servidor mais próximo ao autoritativo que o raiz (por exemplo, o servidor de topo), reduzindo a carga dos servidores raiz.

DNS Reverso
Normalmente o DNS atua resolvendo o nome do domínio de um host qualquer para seu endereço IP correspondente. O DNS Reverso resolve o endereço IP, buscando o nome de domínio associado ao host. Ou seja, quando temos disponível o endereço IP de um host e não sabemos o endereço do domínio(nome dado à máquina ou outro equipamento que acesse uma rede), tentamos resolver o endereço IP através do DNS reverso que procura qual nome de domínio está associado aquele endereço. Os servidores que utilizam o DNS Reverso conseguem verificar a autenticidade de endereços, verificando se o endereço IP atual corresponde ao endereço IP informado pelo servidor DNS. Isto evita que alguém utilize um domínio que não lhe pertence para enviar spam, por exemplo.

Via: Redação - Foto: Reprodução 

O que é Macintosh, ou Mac ?


Macintosh, ou Mac, é o nome dos computadores pessoais fabricados e comercializados pela empresa Apple Inc. desde janeiro de 1984. O nome deriva de McIntosh, um tipo de maçã apreciado por Jef Raskin. O Apple Macintosh foi o primeiro computador pessoal a popularizar a interface gráfica, na época um desenvolvimento revolucionário. Ele é muito utilizado para o tratamento de vídeo, imagem e som.


Os primeiros modelos foram construídos em torno dos microprocessadores da família 68000 da Motorola. Com o surgimento de arquiteturas mais poderosas, a partir de 1994 foi empregada a família de processadores PowerPC da IBM e Motorola. Em 2006, uma nova transição ocorreu, com a adoção de processadores Intel, da família Core.

Em setembro de 2006, três diferentes processadores são utilizados nos diferentes modelos de Macintosh à venda:

Core Solo: processador menos poderoso, usado em modelos mais simples de Mac Mini
Core 2 Duo: processador voltado para uso em notebooks de alta performance, usado em Mac Mini, MacBook, MacBook Pro e iMac

Xeon 5100: processador voltado para uso em servidores, usado na workstation Mac Pro e nos servidores Xserve.
Os Macintosh funcionam normalmente com o sistema operacional Mac OS, mas outros sistemas também são disponíveis, como o Linux ou FreeBSD. Um cluster de PowerMac G5 apelidado de Big Mac era um dos computadores mais rápidos em 2003.

Em 2010 iniciou a adoção dos processadores da serie core nos Macs, como o Corei3, Corei5 e Corei7, sendo estes atualizados em 2011 para a segunda geração destes processadores, e em 20 de julho de 2011 a Apple lança o Mac OS X 10.7 codenome Lion. Este sistema operativo exige máquinas com processadores Intel Core 2 Duo e mais recentes.

Origens
As bases do projeto Macintosh surgiram no início de 1954 com Jef Van Dam, que imaginou um computador fácil de utilizar e barato para grandes empresas. Suas idéias foram repertoriadas em O Livro do Macintosh.

Em fevereiro de 1967, Jef Van Dam foi autorizado a lançar o projeto e começou a procurar um engenheiro capaz de construir o primeiro protótipo. Bill Atkinson, um membro do projeto Lisa, apresentou-o a Bob Smith, um técnico que acabara de ser contratado pela Apple naquele ano. Segundo certas fontes, Bill Atkinson teria dito a Jef Raskin: Jef, this is Burrell. He's the guy who's going to design your Macintosh for you (Jef, este é o Burrell. Ele é o cara que vai projetar o Macintosh para você).

O primeiro protótipo
O primeiro protótipo produzido por Burrell Smith obedecia às especificações de Jef Raskin: tinha 64 KB de memória, utilizava o lento microprocessador 6805E da Motorola e tinha um monitor de 256x256 pixeis em preto e branco. Bud Tribble, um programador trabalhando no projeto Macintosh, propôs que se adaptassem os programas gráficos do Apple Lisa e perguntou se seria possível integrar o processador Motorola 68000 do Lisa ao Macintosh, mas mantendo o baixo custo de produção. A partir de dezembro de 1980, Burrell Smith desenvolveu uma placa que continha não somente um processador 68000, mas que, além disso, fazia-o rodar a uma frequência de 8 MHz em vez de 5 MHz. Este tinha também um monitor com 384x256 pixeis. Esta máquina utilizava menos controladores de memória que o Lisa, tornando sua fabricação bem mais barata.

Steve Jobs e o PARC
O projeto inovador do Macintosh atraiu a atenção de Steve Jobs, que saiu do projeto Lisa com sua equipe para se concentrar no projeto Macintosh. Em janeiro de 1981, ele tomou a direção do projeto, forçando Jef Raskin a deixá-lo.

Steve Jobs tinha visitado os laboratórios de desenvolvimento da Xerox em Palo Alto, Califórnia (Palo Alto Research Center, o PARC), em dezembro de 1979, três meses antes do lançamento dos projetos Lisa e Macintosh. Tendo descoberto que a Xerox desenvolvia uma tecnologia de interface gráfica, ele havia negociado essa visita em troca de ações da Apple. É evidente que essa visita influenciou muito Steve Jobs no desenvolvimento do Lisa e do Macintosh.

Lançamento
O Macintosh foi lançado em 24 de janeiro de 1984, com um preço de US$2495. Vinha equipado com 128 KB de memória (por isso é conhecido hoje como Macintosh 128k, para diferenciá-lo de modelos posteriores, também chamados Macintosh) e rodava com o Sistema Operacional System 1, que mais tarde, já na versão 7.6, seria chamado de Mac OS.
Apesar de uma acolhida entusiástica, ele era radical demais para alguns: como a máquina era construída em torno da interface gráfica, todos os programas em linha de comandos existentes tiveram que ser completamente adaptados. Isso contrariou a maior parte dos desenvolvedores de software, sendo a causa principal da falta de programas para o Macintosh no início.

O PowerPC
No início dos anos 1990, a aliança AIM Apple Computer-IBM-Motorola anuncia a série de processadores PowerPC com arquitetura RISC. Os primeiros Macintosh utilizando o PowerPC surgiram em 1994. Devido à incompatibilidade dos processadores PowerPC e 68000, todas as aplicações Macintosh tiveram de ser reescritas, inclusive o sistema operacional Mac OS. A Apple, reconhecendo o problema, desenvolveu um software emulador para rodar programas escritos para a família 68000 nos PowerPC, mas essa solução intermediária tornava as aplicações bem mais lentas do que os programas compilados diretamente para o PowerPC. À medida que o tempo foi passando, cada vez mais programas foram sendo desenvolvidos diretamente para o PowerPC, e o uso do emulador tornou-se desnecessário. A escolha de utilizar processadores a arquitetura RISC em vez de CISC (como os x86 da Intel) foi (e ainda é) uma decisão controversa. E tambem é conhecido como o maior e mais rápido do mundo.

Os clones
Desde a criação do Macintosh, a maçã sempre resistiu a licenciar sua arquitetura para outras empresas, mantendo-se a fornecedora exclusiva.

Em 1995, criticada pelo alto custo e performance da linha, e com sua fatia no mercado de computadores diminuindo rapidamente, a Apple autorizou um grupo de empresas, incluindo Umax e Power Computing, a fabricar clones do Macintosh. Esperava-se que estas empresas conquistassem outros segmentos do mercado, com modelos diferenciados de Macintosh, preenchendo nichos não explorados pela Apple.

No entanto, a maioria do fabricantes de clones apenas produziu versões dos designs projectados pela Apple, com pequenas variações de velocidade de processador e similares. Efectivamente, a Apple estava fazendo todo o trabalho de pesquisa e desenvolvimento de novos modelos, enquanto os clones apenas produziam modelos equivalentes a preços menores. Como não existiam grandes diferenças entre as linhas, a iniciativa teve um efeito contrário ao do esperado: a fatia de mercado dos modelos Macintosh não aumentou significativamente, mas a fatia proporcional da Apple diminuiu, perdendo espaço para os clones.

Em 1997, a Apple lançou uma nova versão de seu sistema operacional, o Mac OS 8, e Macintoshs baseados numa nova linha de processadores, os PowerPC G3. Nenhuma destas inovações foi liberada para os fabricantes de clones, que abandonaram o mercado em seguida, deixando a Apple como única fornecedora de Macintosh novamente.

O que um chip Intel faz dentro de um Mac?
Em junho de 2005[3], Steve Jobs anuncia que a Apple estava prestes a trocar os processadores PowerPC de seus computadores por processadores da Intel. Os primeiros modelos de Macintosh equipados com chips da Intel apareceram à venda em janeiro de 2006: o MacBook Pro e o iMac, ambos equipados com o processador Intel Core Duo. A Apple anuncia que o MacBook Pro é quatro vezes mais rápido do que o PowerBook G4, e o iMac duas vezes mais rápido que o iMac G5. A frase de campanha comercial da Apple para os novos modelos, bastante provocante, é: "O que um chip Intel faria dentro de um Mac? Muito mais do que já fez em qualquer PC."

Boot Camp
Em 5 de abril de 2006 a Apple anuncia a disponibilidade de Boot Camp, uma coleção de tecnologias que auxilia usuários na instalação de Windows XP Service Pack 2 (edições Home ou Professional) em computadores Macintosh baseados em processadores intel. A Apple acredita, com esse lançamento, que Boot Camp torne o Mac ainda mais atraente para os usuários de Windows que consideram a possibilidade de trocar seu PC por um Macintosh.

 
Via: Redação - Foto: Reprodução 

O que é marketing e publicidade ?



O marketing e a publicidade online também mudaram muito com a web 2.0. Agora a empresa já não pode comunicar, ela deve aprender a interagir. A publicidade deixou de ser uma via de mão única, onde a empresa emite uma mensagem que o consumidor recebe. Como a Internet é feita de gente, a publicidade se tornou o relacionamento entre pessoas da empresa e pessoas que são consumidores.


Isso inclui o um novo conceito chamado marketing de performance. Neste novo conceito, você contrata o serviço de marketing e só paga pelos resultados que recebe. Nada de estar na Internet só para não ficar fora dela, agora toda ação online deve ser interessante do ponto de vista do retorno sobre o investimento.

Além disso, as antigas formas de publicidade online deram lugar a campanhas onde você só paga pelos cliques que seu banner recebe, marketing através de links patrocinados em sites de busca, otimização de sites para sites de busca e marketing viral.

Essas ações tornaram a experiência com as marcas muito mais interessantes, levando um número cada vez maior de empresas a apostar em ações de marketing com esse conceito.

A web 2.0 foi responsável também pelo surgimento de ações cross-media que unem a internet com outras mídias. São ações que começam em um anúncio de jornal ou em um comercial na televisão e continuam na internet com a participação dos usuários.

Via; Redação - Foto: Reprodução 

O que é Sitemap ?

Os mecanismos de busca fazem um bom trabalho com seus robôs em varrer o conteúdo da internet. Mesmo assim, oferecem a webmasters a possibilidade de informarem quais as páginas existentes em seus sites, diminuindo a possibilidade dos robôs do Google e Yahoo "esquecerem" de indexar determinadas páginas.

Isto é feito através de um arquivo XML, geralmente chamado de SITEMAP.XML.


O arquivo pode ser criado manualmente ou através de programas como o GsiteCrawler e ferramentas online, como a disponibilizada em www.xml-sitemaps.com. Uma vez gerado o arquivo, este deve ser colocado no diretório principal do site. Em seguida, deve ser informado ao mecanismo a localização do arquivo. No caso do Google, isso é feito através de sua interface para webmasters.

No antigo modelo para submissão de Sitemap do Google, executar essa tarefa era uma perda de tempo, porque o Google localizava links e descobria novas páginas por contra própria, sem levar em consideração links existentes no arquivo sitemap submetido.Já o novo protocolo diponibiliza grandes recursos para um maior controle do robô do Google.

SITEMAP - VANTAGENS DO NOVO MODELO
As vantagens do novo padrão são resultados de pesquisa mais atualizados e rastreamento mais eficiente, pois você passa a fornecer informações específicas sobre todos os detalhes das páginas de seu site, como freqüencia de atualização e relevância de determinada URL.

O novo modelo de sitemap faz com que informar ao Google sobre páginas novas ou atualizadas seja tão simples quanto entregar um lista completa e formatada diretamente para um representante deles. Você ainda tem a possibilidade de priorizar as páginas através da especificação conhecida como hint (dica).

SITEMAP - USANDO OS RECURSOS
Para explorar todas as novas funcionalidades, o arquivo deve estar criado no formato XML, embora exista também o formato TXT. O arquivo TXT será uma simples lista de URLs. O sitemap baseado em XML, por outro lado, permite que além de submeter as URLs, seja informada a prioridade de cada página, freqüência de atualização e última modificação executada.

Via: Seo Marketing - Foto: Reprodução 

Pv6: A nova geração do protocolo Internet

A Internet Society começou hoje a campanha de troca do atual protocolo IPv4 para a próxima geração IPv6. O objetivo é ampliar o número de IPs (número que identifica cada dispositivo conectado à rede) disponíveis.

Entre as empresas que apoiam a causa estão fornecedoras de equipamentos, provedores e empresas de conteúdo, como Akamai, AT&T, Cisco, Facebook, Google, Bing, Yahoo! etc.

Apesar da mudança, a maioria dos usuários não deve sentir diferenças. “99,95% das pessoas serão capazes de acessar os serviços sem interrupção. Caso eles não se conectem via IPv6, serão redirecionados para o protocolo IPv4. No entanto, como acontece com qualquer tecnologia de próxima geração, pode haver falhas”, afirmou o Google, em junho do ano passado, ao anunciar um teste de migração.

O IPv6 é o formato que vai substituir o atual padrão IPv4, baseado em 32 bits, que possui limite de 4,3 bilhões de combinações. A popularização de smartphones, tablets e outros dispositivos conectados forçou a ampliação do número de IPs.

Com o novo formato, o total de combinações disponíveis salta para 340 undecilhões (ou 3.4×10 elevado a 38).




Via: Redação - Foto: Divulgação

A história do USB

Ele é um verdadeiro "pop-star" no mundo da tecnologia. O arquiteto de plataformas Ajay Bhatt ficou conhecido principalmente após um comercial de TV em 2009.

No vídeo, um indiano apresentado como co-inventor do USB aparece como um ídolo enquanto seus fãs vão ao delírio; muito carismático, ele distribui autógrafos e dedica toda atenção aos seus adoradores. A campanha, por qualquer razão, escolheu um ator para personificar o engenheiro.
Na vida real, Ajay é uma pessoa reservada e nem tão conhecida assim em público; mas o carisma é o mesmo. E nós tivemos a honra de conhecê-lo e saber um pouco mais sobre a história do USB.

"A necessidade é a mãe da invenção", diz Ajay. "Na época, eu ainda era novo na Intel e estávamos acostumados a trabalhar com vários computadores. Quando comecei a usar o PC como um usuário comum, achei muito difícil de usar as coisas. Por exemplo, conectar uma impressora: você tinha que abrir a caixa, conectar uma série de cabos, instalar o software... Era um processo muito longo. Então, achei que seria legal se existisse algo que você simplesmente conectasse e funcionasse (assim como uma tomada elétrica). E foi aí que tudo começou, no meu escritório, em casa".

O USB foi originalmente lançado em 1995; nascia então a primeira versão do protocolo "Universal Serial Bus". Como explicou Ajay, a ideia era mesmo acabar com as inúmeras interfaces externas existentes na época. Naquele tempo, instalar periféricos em um computador obrigava o usuário a abrir a máquina, o que, convenhamos, não era pra qualquer um. Já o USB é uma conexão do tipo "Plug and Play" – ou "Ligar e Usar" – e que permite a fácil conexão de periféricos sem a necessidade de desligar o computador.

O próprio engenheiro considera sua criação como uma inovação que tornou o uso do PC muito mais intuitivo e promoveu também o uso de periféricos. "Hoje já existem tantos periféridos, e as pessoas estão fazendo coisas que nunca sequer imaginamos. Uma vez que nós criamos o padrão, o resto do mundo começou a inovar em cima".
Durante todo esse tempo, a conexão USB evoluiu. A princípio, a versão 1.0 oferecia velocidade de transmissão de até 12 megabits; ou seja, 12 milhões de bits por segundo. No ano 2000, o padrão 2.0 elevou essa velocidade para 480 megabits por segundo. Nove anos depois, as máquinas mais modernas, como os Ultrabooks, passaram a trazer o novo USB 3.0, com velocidade de 5 gigabits por segundo.

"Para fazer o USB 3.0 funcionar, simplesmente pegamos o mesmo conector e adicionamos alguns pinos; são quatro novos pinos que levam os sinais do USB 3.0. Os conectores funcionam com a mesma conexão, só que com quatro fios a mais, e podem chegar aos 5 Gigabits", explica.

Mas o indiano acredita que, sim, podemos ir ainda mais longe! Para ele a grande questão agora é: quando for mais rápido, será que ainda vamos querer fios e cabos? Ou vamos querer tudo wireless? Isso, só vamos descobrir no futuro.

Hoje, Ajay Bhatt trabalha na evolução dos Ultrabooks, a nova categoria de computadores portáteis que, assim como o USB, promete revolucionar o mundo da informática. "Acredito que os Ultrabooks vão dar início a uma nova era, com muitas tecnologias novas que as pessoas realmente desejam", concluiu.

 
 Via: Portal Olhar Digital - Foto: Reprodução 

 
Digital 4 - A Nova Geração em Comunicação.
Copyright © 2017 | Resolução Mínima 1024x768 | Desenvolvido Por: Digital 4