среда, 24 декабря 2008 г.

Последний ....

SEO Нужно Делать, а Не Писать...

Это Был Последний Пост

среда, 13 августа 2008 г.

Полезные Советы по Раскрутке и Оптимизации Сайта (Часть Первая)

Эти полезные советы возможно не новы, но они помогут раскрутить и оптимизировать ваш сайт. На них я наткнулся на одном буржуйском сайте и перевел статью для себя, и для всех кому это может быть полезным.

И так...

1. Убедитесь, что ваш сайт не находится на стадии разработки, неполными, практически без какого-либо уникального контента.

2. Если сайт готов, добавте его в каталоги основных поисковиков. Зарегистрируйте также свой сайт в веб-директориях, открытых каталогах и на сайтах социальных закладок с высоким PR, таких как del.icio.us, furl и т.д.

3. Дайте знать искалкам, про то что у вас есть карта сайта – это облегчит индексацию (карта сайта для поисковых систем, как правило, в формате XML)

4. Сделайте карту сайта для посетителей, это понятно зачем (для посетителей в HTML формате)

5. Создайте уникальный, интересный и содержательный сайт. Старайтесь не дублировать контент. Не создавайте много одинаковых или похожих страниц, не дублируйте контент вашего сайта под другим доменом.


6. Проверьте ваши ключевые слова и убедитесь, что они имеют отношение и фактически содержатся на Вашем сайте, но следите за тем, что ключевых слов не было слишком много.

7. Максимально используйте текст на сайте, а не рисованные буквы.

8. Придумайте информативные заголовки для ALT тегов, естественно они должны содержать нужные вам ключевые слова.

9. TITLE тег должен содержать 60-80 символов максимум.

10. DESCRIPTON Мета-тег - 160-180 знаков, включая пробелы. (около 25-30 слов)

11. KEYWORD Мета-тег - 15-20 слов максимум.

12. Оптимизируйте страницы сайта заголовками (HTML теги: H1, H2, H3 ..).

13. Проверьте правильность CSS И HTML и удалите неработающие ссылки или исправте их!

14. Если Ваш сайт содержит динамические страницы, убедитесь, что вы используете SEO дружественный URL. Поисковые "пауки" не всегда легко индексируют такие страницы.

15. Максимальное количество ссылок на странице должна быть не больше, чем 100. В противном случае сайт может попасть под категорию «ферма ссылок».

16. Использование Lynx, как текстовый браузер, чтобы проверить свой сайт. (http://lynx.isc.org/)

На этом я заканчиваю первую часть полезных советов по раскрутке и оптимизации сайта. Ту би континуэд, как говорится.

пятница, 8 августа 2008 г.

ICQ SEO Бот – Основные Сервисы Оптимизатору в Одном Месте


Я давно ловил себя на мысли, что стоило бы почитать немного о том, что пишут в своих блогах «наши» оптимизаторы и web мастера. Читаю в основном буржуйскую инфу по SEO. А тут наткнулся совершенно случайно на ICQ SEO Бота, просматривая статистику посещений своего блога. В источниках трафика был блог SEO Маньяка, ну зашел я к нему на блог и увидел довольно таки полезный пост. Решил и себе написать про ICQ SEO Бота, что бы не забывать, думаю, что эта инфа мне пригодится.

Вот ася бота: 103-35-35
И список того, что он может:
!seo @ - от тиЦ до исходящих ссылок
!sgo @ - тИЦ, PR, Бэки, Як, Dmoz, Стр.
!links @ - вывод списка исходящих ссылок
!pa @ # - массовая проверка страниц, до 10 сайтов
!cy @ # - массовая проверка тиц, до 10 сайтов
!pr @ #- массовая проверка pr, до 10 сайтов
!whois @ - WHOIS, бета версия
!domen @ - проверка домена на занятость
!up - Просмотр голосования о апе, в яндексе.
!up+ - Есть ап в яндексе? Отправь команду
!up- - Нет апа в яндексе? Отправь команду
!ip2host айпи - узнать хост по ip
!host2ip хост - узнать ip по хосту
!help - вывести помощь
@ и # - адреса сайтов, для которых выполняется действие.

ЗЫ: Спасибо SEO Маньяку за ICQ SEO Бота и сорри, что практичски рерайтнул пост, в знак «спасибо» - ссылка на Блог SEO Маньяка.

среда, 30 июля 2008 г.

Сага Продолжается: Гугл Сделал Очередное Па – Эхо Теста

Придя к мысли, что Гугл засандалил мои ресурсы в песочницу или еще хуже – забанил (напомню, что он перестал что либо выдавать по моему ключевому слову), я решил избавится от ненавистного текста с уродливым выдуманным ключевым словом, дабы продолжить работу все с теми же ресурсами. Сделав уборку, я еще разок запросил у Гугла это адское словечко. Что получилось? Вот результат!

1. 1 КС на 250 слов – всего 500
2. ключевой заголовок и одни ключевики (примерно 7) в тексте
3. 1 КС на 100 слов – всего 500 (Ключевики жирным не были выделены)
4. 1 КС на 100 слов – всего 500 слов (ключевые слова выделены жирным, но в первом и последнем абзаце не присутствуют)
5. 2 КС на 650 слов – всего 1300 слов
6. Здесь выплыла страница, которая вначале вообще не попала в выдачу!

Как расценить такое поведение Великой Искалки? Неужели я его обманул и он «скушал» спам? Странность заключается еще и в том, что позиции поменялись.


Из результатов видно, что самые ценные страницы, которые при первой выдаче и занимали первые места, теперь либо отсутствуют, либо отошли на второй план. Что заставило, например, Гугл передвинуть страницу с первого на пятое место? Что??? Что???? Появление новой страницы, еще можно аргументировать тем, что, мол, не успел проиндексировать, а вот то, что хорошая страница (которая при первой выдаче была на 2й позиции - 1 КС на 100 слов – всего 500 (КС выделены жирным, имеются в первом и последнем абзаце)) совсем осталась без внимания….

Остается одно, проверить через день два опять тот же запрос и посмотреть не изменилось ли чего. А вдруг Гугл, имея почти одинаковые страницы, выдает их наугад? Остается только гадать. Подождемс еще…

вторник, 29 июля 2008 г.

Просто Идея: Как Правильно Воровать Статьи?

Во время теста на плотность и количество ключевых слов, меня посетила мысль о том, как правильно воровать статьи с других ресурсов. Не буду утверждать, что это работает на практике, и Гугл краденую статью посчитает оригиналом, но в любом случае, контент крался, крадется и будет красться.

Так в чем же суть? Она проста и не нова. Замечено что Яндекс сейчас гораздо шустрее индексирует страницы, а вот Гугл как раз наоборот. Так вот, что можно сделать:

- выбрать интересные сайты, у которых вы будете тырить

- проследить за его обновлениями и, как только там появилась свежая статья, быстренько запостить у себя и раскидать ссылки на социальных сайтах (digg.com и тп), дабы ускорить процесс индексации именно вашей статьи.

- изменить заголовок, добавить в него ключевое слово, ежели такового нет или придумать свой.

Еще раз повторюсь, что это всего лишь мысль, на которую я натолкнулся. Утверждать ничего не стану, да и не нужно. Если и воровать статьи, то делать это нужно максимально правильно?! Ну, вот в общем то и все.

четверг, 24 июля 2008 г.

Плотность Ключевых Слов и Их Количество – Результаты Теста

Наконец-то можно проанализировать результаты теста, целью которого было определить оптимальную плотность ключевых слов и «вес» выделения этих слов жирным шрифтом. Позиции говорят сами за себя, по этому не буду углубляться в тошнотворно глубокий анализ.

Позиции страниц в Яндексе (Гугл долго отказывался видеть страницы) были следующими:
1. 1 КС на 650 слов – всего 1 300 (как я и думал – поисковики любят много текста. Да, киворды на этой странице были выделены жирным).

2. 1 КС на 100 слов – всего 500 (КС выделены жирным, имеются в первом и последнем абзаце). Именно такого типа оптимизацию я использую в своей практике, но возможно плотность ключевиков немного ниже. 1кс на 150 = 3-4 в статье из 500.

3. 7 КС на 100 слов – всего 100 слов. Даже не знаю, что сказать, если честно. Текст явно спамовый.

4. 1 КС на 250 слов – всего 500. Ключевики выделены жирным.

5. Ключевой заголовок и одни ключевики (примерно 7) в тексте. 100%й спам, но учитывая, что еще осталось две позиции (одну страницу Яндекс так и не заметил), где страницы явно менее спамовые, можно предположить, что Яндекс не совершенен.

6. 1 КС на 100 слов – всего 500 слов (ключевые слова выделены жирным, но в первом и последнем абзаце не присутствуют). Оставлю без комментариев.

7. 1 КС на 100 слов – всего 500 (Ключевики жирным не были выделены). Страница была «оснащена» ключевиками по такому же принципу, как и страница, попавшая на второе место, но жирным слова не выделялись. Думаю, важность выделения доказана!

Но самое интересное произошло на следующий день. Яндекс выкинул из выдачи все страницы, оставив только те три, которые были на первых трех позициях. Гугль же спустя какое то время выдал то же что и Яндекс, кажется (говорю «кажется», потому что черновики теста утеряны). А еще через день два обе искалки отказались выдавать, что-либо по моему слову.

Вывод по поводу плотности ключевых слов можно сделать из вышеизложенного, но вот по поводу резкого «выкидыша» страниц из поиска нужно еще кое-что сказать. Текст сопутствующий мой киворд был 100% оригинальным, но одинаковым. Наверное. Это моя ошибка – одинаковый контент сразу на 8ми страницах появляется за в течении часа – это спам, что и привело к бану. В любом случае, какой то результат – это уже почва для размышлений и выводов.

воскресенье, 20 июля 2008 г.

Тест: Плотность Ключевых Слов и Их Количество

Цель: определить оптимальное количество слов на странице и плотность ключевых слов в тексте.

Для теста я взял 8 ресурсов, которые еще даже не попали в индекс Гугла, придумал слово по которому Гугл ничего не находить во всем Инете, текст имеющий смысл для человека. Все страницы с выдуманным ключевиком были добавлены в один день в течении часа. Короче, перед лицом искалки они равны в плане ссылок и всего прочего, гугл боту предстоит выбрать что же поставить на первое место, основываясь только на том как, где и сколько ключевых слов понаставлял я. 

Были добавлены такие страницы:
1. ключевой заголовок и одни ключевики (примерно 7) в тексте
2. текст без ключевого слова (1 300 слов)
3. 1 КС на 100 слов – всего 500 (КС выделены жирным, имеются в первом и последнем абзаце)
4. 1 КС на 250 слов – всего 500
5. 1 КС на 650 слов – всего 1 300
6. 1 КС на 100 слов – всего 500 (Ключевики жирным не были выделены)
7. 7 КС на 100 слов – всего 100 слов
8. 1 КС на 100 слов – всего 500 слов (ключевые слова выделены жирным, но в первом и последнем абзаце не присутствуют)

Больше всего меня интересует, как Гугл оценит и расставит страницы 3, 6 и 8. Действительно ли важно выделять жирным ключевые слова для поисковиков? Имеет ли значение место их расположение и плотность? Уверен, что подобное я делаю не первый, но и не последний, по этому все равно вижу в этом смысл. О результатах напишу, когда страницы будут проиндексированы. Ждемсс…

ЗЫ: Решил сделать предположение позиция/страница, посмотрим на сколько я был прав или нет.
1. - 5
2. - 3
3. - 6
4. - 8
5. - 4
6. - 7
7. - 2
8. - 1

Гугл-танцы: Как попасть в топ 10 Google?

Первая страница – вот главная цель каждого оптимизатора сайта. Но как же на нее попасть? Где написано то заветное, что нужно сделать? А нигде!:) Нигде в доступном простому оптимизатору месте. Кому и зачем нужны бы были, мы гугл-танцоры, если бы все знали адрес сайта, на котором есть четкая инструкция по поводу того, что и как нужно сделать.


Можно попробовать спросить у Лари Пейджа или Сергея Брина – это хлопцы, которые и создали Гугл. Но они вам точно не скажут по той простой причине, что цены у этой информации нет. Да сами то они, скорее всего, не смогут дать 100% гарантию. Подумайте сами – Гугл работает полностью автоматизировано, алгоритм постоянно развивается. Критериев, по которым Гугл оценивает сайт больше 200!

Сережа Брин

Правда, есть один сто процентный способ попасть на первое место при выдаче. Придумайте собственное слово и под него оптимизируйте сайт или страницу. Правда тут проблема – все равно никто не увидит его, поскольку заветное слово никто никогда не запросит.

Грубо говоря, есть две самые главные вещи, которые влияют на позиции сайта: оригинальный контент и хорошие бек-ссылки, но когда конкуренция жесткая, работа оптимизатора начинает напоминать искусство. Каждая мелочь на вес золота!

Лари Пейдж


В принципе, в оптимизации нет ничего сложного – но самое главное понять, как все работает. Но так же очень важно постоянно быть в курсе тенденций. Гугл постоянно развивается и делает свой алгоритм все загадочней и загадочней, и задача оптимизатора – приблизится к разгадке как можно ближе.


ЗЫ: пока писал, в голову пришла идея. Сделаю кое какой эксперимент связанный с ключевыми словами и оптимизацией текста.

четверг, 10 июля 2008 г.

Основы Оптимизации Сайта

В этом посте я хочу упомянуть об основах оптимизации сайта под поисковые машины. На самом деле в этом нет ничего сложного или удивительного. Практически никакого волшебства! Все предельно просто и доступно – все основывается на нормальной человеческой логике.

Что собственно оптимизировать? Заливать красивые картинки? Придумывать мега крутой дизайн? Нет! Вышеупомянутое, конечно же хорошо, но поисковым машинам наплевать на красоту вашего дизайна и фотографий! Так начнем же с основного составляющего контент элемента – текста.

Требования к тексту:

1. Оригинальность. Текст, написанный своими, так сказать, руками поисковики ценят гораздо выше. К ворованному тексту вообще негативное отношение.

2. Хороший формат. Самые важные ключевые слова выделяются жирным шрифтом, менее важные – курсивом. Это не только облегчает чтение, но дает поисковику знать, что именно это слово и есть ключевое. Заголовок выделяется соответствующими HTML тегами.

3. Правильная насыщенность ключевыми словами. Сколько ключевиков и где они должны быть известно только самим искалкам, но есть общепринятое мнение, что одна ключевая фраза/слово на 150-200 других слов.

4. Грамотность. Следите за правильностью написания слов, особенно ключевых. Напишете в заголовке «купить цвиты», ваш сайт и будет находится по этому запросу, а по запросу «купить цветы» у него вряд ли будут хорошие позиции.

Внутренние ссылки:

1. Самое главное правило – любая информация должна находиться не далее двух кликов от главной страницы.

2. Ссылки должны сопровождаться правильным якорным (кликабельным) текстом – и если сёрфер кликает по слову «купить цветы», то он не должен попасть на траницу или сайт продающий виагру!

Внешние ссылки:
1. Тут правило одно – чем больше «хороших» сайтов (похожих по содержанию) ссылаются на твой, тем лучше. Здесь так же большую роль играет Google Page Rank страницы, на которой находится ваша ссылка. Говорят, помогают любые внешние ссылки, но нерелевнтные – 100% очень слабо! О том, как оценить качество ссылки со страницы и о Гугл Пэйдж Ренке я еще расскажу потом.

Вышеизложенные основы оптимизации сайта – это лишь то немногое что нужно знать, но это немногое и есть каркас, на который нужно «одевать» другие знания и опыт. Возможно здесь не все, что я еще мог бы сказать, но пока в голову ничего не приходит. Придет – допишу.

пятница, 4 июля 2008 г.

Движок Сайта/Блога – Выход из Пложения

Движок Сайта, а точнее, блога, помог мне решить важную проблему, с которой я столкнулся, когда собрался делать конкретный шаг к созданию сайта. А еще точнее – создать линковый скелет и нацепить на него мясо дизайна. Основы Photoshop и HTML – вот весь мой багаж знаний.


Сайт мы решили делать с партнером, более опытным, чем я. Как, оказалось, есть простой, но отличный выход из положения. Выдумывать дизайн, писать HTML и делать кучу другой трудоемкой работы было не обязательно. Мы воспользовались движком блога, который написал Ласто, знатный в определенных кругах Веб Мастер. Его (движка блога) несомненно позитивными качествами были: легкость и простота (работа с интерфейсом блога доступна для понимания даже дауна).


Почему я выделил легкость, как одно из основных позитивных качеств? Все просто – Великий и Могучий Гугль любит HTML, то есть легкие сайты, его боты быстро пробегают по коду, не обо что не спотыкаясь, в отличии от красивых, но тяжелых сайтов из флешь. Если это не имиджевый сайт, как говорится, флешь – фтопку! Плюс – грамотная перелинковка – вот и готов правильный каркас.


Короче, движок сайта или блога – отличный выход, когда нужно быстро поставить сайт на ноги. Есть платные и бесплатные движки. К бесплатным можно отнести Word Press, он очень популярен и точно не зря. Удобное и многофункциональное администрирование, все грамотно и красиво, к тому же, на Word Press имеется много бесплатных шаблонов.

четверг, 3 июля 2008 г.

Создание Сайта – С Чего Я Начинал

На создание сайта меня натолкнуло естественное желание управлять оптимизацией чего-то своего, где я бы был хозяином и где бы все решения зависели бы только от меня. Первостепенной целью было, так сказать, на собственной шкуре ощутить все прелести первых сёрферов из искалок, планирование технического задания, короче говоря, получить необходимый опыт, который позволил бы мне вырасти как специалист SEO.

Вначале – кратко о том основном, над чем стоит задуматься:

  1. Тематика сайта
  2. Список ключевых запросов
  3. Конкуренция
  4. Имя сайта

Этот список можно было бы продолжать еще долго, но, так как мы говорим о самом начальном этапе, думаю, пока можно остановиться и на этих четырех пунктах. И так…

  1. Выбрать тематику для сайта, наверное, проще и одновременно, сложнее всего. Нужно делать сайт о том, что самому интересно, да и чем имеешь хоть малейшее понятие. Тем более, если не делать очередной говно-сайт, а полезный ресурс с оригинальным или относительно оригинальным контентом. Лично мой выбор был практически случайным. Дома завалялась книга по народной медицине, грамотно структурированная по разделам. Вбив в Могучий Гугль «народная медицина», я увидел, что сайтов по данной тематике относительно немного. Короче, выбор был сделан. Чтобы статьи не были уж таким явным плагиатом, решил заняться рерайтингом – переписывать книгу своими словами.
  2. Тут все просто, определите самые популярные (часто запрашиваемые) слова, по которым люди попав на сайт, нашли то, что искали. У Яндекса есть полезный тул, который помогает определить частоту запросов по определенному слову и словосочетаниям.
  3. Определив ключевые слова, и посмотрев, что выдает искалка по ним, можно увидеть своих конкурентов – естественно, они будут на первый страницах. Изучите их (конкурентов) и сделайте свой сайт лучше!
  4. Здесь тоже ничего сложного – имя должно быть коротким и запоминающимся. Для искалок, конечно же, длинна не имеет особого значения, но для людей – да, особенно, если они захотят вновь его посетить, но забыли по какому слову на него попали.

Еще можно было бы написать про хостинг, но в этом вопросе разбираюсь плохо, посему не буду вводить никого в заблуждение догадками и ненужным трепом. Думаю для сугубо информативного сайта, важна лишь надежность провайдера. Если сервер падает – это плохо.

Описанное выше – это, конечно же, самый начальный этап в создании сайта, который некоторые проходят очень быстро и переходят к гораздо более серьезным задачам, но, тем не менее, возможно именно здесь и кроется залог успеха в будущем.

Bнешние Cсылки – Первая Bстреча С Pаскруткой Cайта

Что такое внешние ссылки и для чего они собственно нужны, я узнал спустя пол года, после того как столкнулся с ними. По работе мне пришлось делать дивные задания: размещать на десятках сайтов со статьями статьи, написанные кем-то. Проще говоря, я как робот копипастил одну статью на все сайты, за тем другую и так далее. Дело это было не хитрое, даже примитивное, но меня это мало волновало, так я чувствовал, что прикоснулся к неведомому и загадочному миру продвижения сайта.

Я начал задумываться, какой же все-таки толк со всего этого. Полагать, что они пишутся для людей, которые усердно читают все, что попадется им на глаза и заодно прихватят своим взглядом «мою» статью, да потом еще и кликнут на ссылку, после чего сделают заказ, было наивно даже в то время. Тогда зачем все это!?!? Ответ пришел спустя пол года, когда по работе мне вплотную пришлось заниматься не только внешними ссылками, но и оптимизацией и продвижением сайта…

Но сейчас забегать наперед я не буду, так это всего-навсего первый пост, и он скорее должен служить вступлением, чем конкретным носителем информации по поводу внешних ссылок. Хочу сказать, что буду рад найти своего читателя или даже соавтора, с которыми можно было бы обсуждать многочисленные загадки того, что любит и что не любит Великий и Могучий Гугль! Обмен опытом – великая штука!

Остается надеяться, что у меня хватит сил и времени, пополнять копилку своего блога новыми статьями. Времени мало, а сделать хочется многое. Я поделюсь тем, что знаю и так же готов обсудить любую позицию касательно чего-либо связанного с оптимизацией. Каждый приходит в SEO своими путями, у меня же это были внешние ссылки.