porque a goomarketing é a melhor empresa de seo de bh

Search engine optimization (SEO)

é o processo de afetar a visibilidade de um site ou uma página web em um motor de busca na web resultados não pagos ‘s – muitas vezes referida como “natural”, ” orgânico “, ou “ganhos” resultados. Em geral, quanto mais cedo (ou mais espesso na página de resultados de busca), e mais frequentemente um site aparece na lista de resultados de busca, mais visitantes receberá a partir de usuários do motor de pesquisa, e os visitantes podem ser convertidos em clientes.  SEO pode direcionar diferentes tipos de pesquisa, incluindo pesquisa de imagens , busca local , busca de vídeo , pesquisa acadêmica ,  busca de notícias e específicos da indústria de busca verticais motores.

Como Internet marketing estratégia, SEO considera como motores de busca de trabalho, que as pessoas pesquisam, os termos reais de busca ou palavras-chave digitadas em motores de busca e que os motores de busca são preferidos por seu público-alvo. Otimização de um site pode envolver a edição de seu conteúdo, HTML e codificação associado a aumentar sua relevância para palavras-chave específicas e eliminar barreiras às atividades de indexação dos motores de busca. A promoção de um site para aumentar o número debacklinks , ou links de entrada, é outra tática de SEO. Em maio de 2015, busca móvel foi finalmente superada busca no desktop, Google está desenvolvendo e empurrando busca móvel como o futuro em todos os seus produtos e muitas marcas estão começando a ter uma abordagem diferente em suas estratégias de internet 

  SEO

História

Webmasters e provedores de conteúdo começaram a otimizar sites para motores de busca, em meados da década de 1990, quando os primeiros motores de busca foram catalogar o início Web . Inicialmente, todos os webmasters precisavam fazer era enviar o endereço de uma página ou URL , para os vários motores que iria enviar uma ” aranha ” para “rastrear” a página, extrato de links para outras páginas a partir dele, e retornar informações encontradas na a página a ser indexado .  o processo envolve um motor de busca aranha download de uma página e armazená-lo no próprio servidor do mecanismo de busca, onde um segundo programa, conhecido como um indexador , extrai várias informações sobre a página, como as palavras ele contém e onde eles estão localizados, bem como qualquer peso por palavras específicas e todos os links da página contém, que são então colocados em um agendador para rastreamento em uma data posterior.

Os proprietários do site passou a reconhecer o valor de ter seus sites altamente classificados e visíveis nos resultados do motor de busca, criando uma oportunidade para tanto chapéu branco e chapéu preto profissionais de SEO. De acordo com a analista do setor de Danny Sullivan , a frase “search engine optimization” provavelmente entrou em uso em 1997. Sullivan credita Bruce Clay como sendo uma das primeiras pessoas a popularizar o termo.  Em 2 de maio de 2007, Jason Gambert tentou marca o termo SEO por convencer o Escritório de marcas no Arizona  que SEO é um “processo” que envolve a manipulação de palavras-chave, e não um “serviço de marketing.”

As primeiras versões de busca algoritmos baseou em informações fornecidas-webmaster, como a palavra-chave meta tag , ou arquivos de índice em motores como Aliweb . Meta tags fornecer um guia para o conteúdo de cada página. Usando dados de meta para páginas de índice foi encontrado para ser menos de confiança, no entanto, porque a escolha do webmaster de palavras-chave na tag meta poderia ser uma representação imprecisa do conteúdo real do site. Dados imprecisos, incompletos e inconsistentes na meta tags podem e causou páginas classificar para pesquisas irrelevantes.  provedores de conteúdo da Web também manipularam um número de atributos dentro do HTML de uma página em uma tentativa de classificação bem nos motores de busca. 

Por confiar tanto em fatores como a densidade de palavras-chave que eram exclusivamente dentro do controle de um webmaster, motores de busca iniciais sofreu de abuso e manipulação de classificação. Para proporcionar melhores resultados para os seus utilizadores, os motores de busca tiveram de se adaptar para garantir que suas páginas de resultados mostraram os resultados mais relevantes, ao invés de páginas não relacionadas recheado com inúmeras palavras-chave por webmasters sem escrúpulos. Desde o sucesso ea popularidade de um motor de busca é determinada pela sua capacidade de produzir os resultados mais relevantes para qualquer pesquisa, de má qualidade ou resultados de pesquisa irrelevantes poderia levar os usuários a encontrar outras fontes de pesquisa. Os motores de busca responderam através do desenvolvimento de algoritmos de classificação mais complexos, tendo em conta factores adicionais que foram mais difícil para webmasters para manipular.

Em 1997, a busca projetistas de motores reconheceu que webmasters estavam fazendo esforços para classificar bem nos seus motores de busca, e que alguns webmasters foram mesmo manipular os seus rankings nos resultados de pesquisa enchendo as páginas com palavras-chave excessivas ou irrelevantes. Motores de busca iniciais, como Altavista e Infoseek , ajustado seus algoritmos em um esforço para evitar webmasters de manipular rankings. 

Em 2005, uma conferência anual, Airweb, Adversarial Information Retrieval na Web foi criado para reunir profissionais e pesquisadores preocupados com a otimização de motor de pesquisa e tópicos relacionados. 

As empresas que empregam excessivamente técnicas agressivas podem obter os seus sites de clientes banido dos resultados de pesquisa. Em 2005, o Wall Street Journal informou em uma empresa, o tráfego de Energia , que alegadamente utilizadas técnicas de alto risco e não revelou os riscos para seus clientes. Wired revista informou que a mesma empresa processou blogueiro e SEO Aaron Wall para a escrita sobre a proibição.  do Google Matt Cutts confirmou mais tarde que o Google fez, de facto, proibição de tráfego de energia e alguns de seus clientes. 

Alguns motores de busca também estendeu a mão para a indústria de SEO, e são patrocinadores e convidados frequente em conferências de SEO, bate-papos e seminários. Importantes motores de busca fornecer informações e orientações para ajudar com a otimização de site. O Google tem uma Sitemaps programa para ajudar webmasters saber se o Google está tendo problemas indexar seu site e também fornece dados sobre o tráfego de Google para o site.  Bing Webmaster Tools fornece uma maneira para webmasters para enviar um mapa do site e feeds da web, permite que os usuários para determinar a taxa de rastreamento, e acompanhar o status web páginas de índice.

Relacionamento com o Google

ntico das páginas web.

Em 1998, os estudantes pós-graduação na Universidade de Stanford , Larry Page e Sergey Brin , desenvolveu “Backrub”, um motor de busca que dependia de um algoritmo matemático para avaliar a proeminência de páginas da web. O número calculado pelo algoritmo, PageRank , é uma função da quantidade e da força de ligações de entrada . [19] PageRank estima a probabilidade de que uma determinada página será alcançado por um usuário da web que navega aleatoriamente na web, e segue os links de um principal para outro. Com efeito, isto significa que algumas ligações são mais fortes que outras, como uma página PageRank mais elevado é mais provável de ser atingido pelo surfista aleatória.

Page e Brin fundaram o Google em 1998. [20] Google atraiu um público fiel entre o crescente número de Internet aos usuários, que gostava de seu design simples. [21] fatores off-page (como PageRank e análise hyperlink) foram considerados, bem como fatores on-page (tais como frequência de palavras-chave, meta tags , títulos, links e estrutura do site) para permitir Google para evitar o tipo de manipulação visto nos motores de busca que só considerados fatores on-page para os seus rankings. Embora PageRank era mais difícil de jogo , webmasters já tinham desenvolvido ferramentas de construção da ligação e esquemas para influenciar o Inktomi Search Engine, e estes métodos provaram semelhante aplicável a PageRank jogos. Muitos sites focados em troca, compra e venda de links, muitas vezes em uma escala maciça. Alguns destes esquemas, ou link fazendas , envolveu a criação de milhares de sites para o único propósito de ligação de spam . [22]

Em 2004, os motores de busca havia incorporado uma ampla gama de fatores não revelados em seus algoritmos de classificação para reduzir o impacto da manipulação link. Em junho de 2007, The New York Times ‘SaulHansell afirmou Google classifica sites usando mais de 200 sinais diferentes. [23] Os motores principais da busca, Google , Bing e Yahoo , não divulgar os algoritmos que eles usam para classificar as páginas. Alguns profissionais de SEO ter estudado diferentes abordagens para search engine optimization, e partilharam as suas opiniões pessoais. [24] patentes relacionadas aos motores de busca podem fornecer informações para entender melhor os motores de busca. [25]

Em 2005, o Google começou a personalizar os resultados de pesquisa para cada usuário. Dependendo do seu histórico de pesquisas anteriores, Google trabalhada resultados para usuários logados. [26] Em 2008, Bruce Clay disse que “ranking está morto” por causa de pesquisa personalizado . Ele opinou que se tornaria sem sentido para discutir como um site classificado, porque a sua classificação seria potencialmente ser diferente para cada usuário e cada pesquisa. [27]

Em 2007, o Google anunciou uma campanha contra links pagos que transferem PageRank. [28] Em 15 de junho de 2009, o Google revelou que tinham tomado medidas para mitigar os efeitos de esculpir PageRank pelo uso donofollow atributo em links. Matt Cutts , um engenheiro de software bem conhecido no Google, anunciou que o Google Bot deixaria de tratá ligações nofollowed da mesma forma, a fim de impedir que os prestadores de serviços de SEO de usar nofollow para esculpir PageRank. [29] Como resultado dessa mudança o uso de nofollow leva a evaporação do pagerank. A fim de evitar o exposto, os engenheiros de SEO desenvolvido técnicas alternativas que substituam as tags nofollow com ofuscado Javascript e, assim, permitem PageRank escultura. Além disso várias soluções foram sugeridas, que incluem o uso de iframes , o Flash e Javascript. [30]

Em dezembro de 2009, o Google anunciou que estaria usando o histórico de pesquisa web de todos os seus usuários, a fim de preencher os resultados de pesquisa. [31]

Em 8 de Junho de 2010, um novo sistema de indexação web chamado Google Caffeine foi anunciado. Projetado para permitir que os usuários encontrem resultados de notícias, mensagens do fórum e outros conteúdos muito mais cedo após a publicação do que antes, o Google cafeína foi uma alteração na forma como o Google atualizou seu índice, a fim de tornar as coisas mostram-se mais rápido no Google do que antes. De acordo com Carrie Grimes, o engenheiro de software que anunciou cafeína para o Google, “Cafeína fornece resultados de 50 por cento mais frescas para pesquisas na web do que o nosso último índice …” [32]

Google Instant , em tempo de procura de verdade, foi introduzido no final de 2010 em uma tentativa de tornar os resultados de pesquisa mais relevantes e oportunas. Historicamente os administradores de sites passaram meses ou mesmo anos otimização de um site para aumentar rankings de busca. Com o crescimento da popularidade dos sites de mídia social e blogs os motores principais mudanças feitas para os seus algoritmos para permitir que novos conteúdos para classificar rapidamente nos resultados da pesquisa. [33]

Em fevereiro de 2011, o Google anunciou o Panda atualização, que penaliza sites que contenham conteúdo duplicado a partir de outros sites e fontes. Historicamente sites ter copiado o conteúdo de um outro e beneficiou nos rankings motor de pesquisa por engajado nessa prática, no entanto Google implementou um novo sistema que pune sites cujo conteúdo não é única. [34] De 2012 Google Pinguim tentou penalizar sites que utilizaram técnicas de manipulação para melhorar seus rankings no motor de busca, [35] e 2013 Google Hummingbird atualização apresentou uma mudança do algoritmo projetado para melhorar o processamento de linguagem natural do Google e entendimento semâ