SEO размисли

Публикувано / posted 2008-06-20 в категория / in category: Web development, Некои съображения
  

seo.jpgТия се позачетох за Search Engine Optimizing. Причината да се позаинтересувам е, че реших, че е крайно време да се пообразовам и аз на тази тема. По принцип почти всички "сайтове", които съм правил са били интранет и SEO-то никога не е било какъвто и да било приоритет. Естестествено имах си базова представа, че трябва да имаш добри <title>, <h1> и други подобни елементарни неща, но никога не се бях замислял за неща като PageRank, link building, XML sitemaps, keywords density и т.н.

Тъй като последните 6 месеца го раздавам фрилансер и от време на време правя по някой публичен сайт (дом) реших, че е добре да се предлага и SEO като съпътстваща услуга за популяризиране на сайтовете ("труженичките"). След 2 дена четене, гледане на видеота и преглеждане на други материали стигнах до извода, че аналогиите между сводниците и SEO-тата са доста :-). Един вид SEO-са pimp-овете на интернет :-).

По-надолу ще изброя и някои други интересни наблюдения и "скромни" заключения.

Първото нещо, което се набива на очи е наличието на прекалено много SEO ресурси. Явно Сульо, Пульо, Атанас (а вече и аз) са решили, че това е лесен начин да се изкарват пари и се бълват безброй SEO сайтове.

Дотук добре, но доста бързо става ясно, че повечето материали просто повтарят едно и също, а нерядко това "едно и също" са пълни глупости. Отделно повечето "техники" в крайна сметка понижават качеството на интернет съдържанието (и това затвърди мнението ми от последните 3-4 години, че интернет вече трябва да се нарича "интерсвинщина").
SEO свинщините, които ми направиха най-лошо впечатление:

  • Автоматично генерирано съдържание -- това най-общо казано е използване на генератори на текстове. Най-простите от тях разполагат с някакъв речник от думи. SEO-то казва на генератора какви ключови думи иска да са включени в съдържанието и с каква плътност. Генератора изплюва някакъв текст от случайни думи и изречения, които са напълно безсмислени. В сравненията с тях, бръщолевенията на кварталния луд изглеждат като докторска дисертация по квантова физика. В резултат се получава сайт който е тотално безполезен, но се рейтва високо в Google за избраните ключови думи (реално се използват и други техники, но това в случая не е по темата) и съответно човек може да се подлъже и да отиде на него (и да си загуби времето). Проблемът е много по-голям, когато в първата страница с резултати на Google, 8 от 10 са сайтове с генерирано съдържание (примерно).
  • Кражбата на съдържание -- вижда някой SEO тарикат, че дадена ниша е потенциално доходоносна и набързо сковава едно сайтче за нея. Дотук добре. Сега обаче му трябва съдържание. Тарикатът го мързи да създава съдържание и затова просто го открадва от някой друг сайт, като в повечето случаи дори не си прави труд да си напише харвестер, ами просто маже с Copy & Paste. Този плагиатстван сайт отнема от трафика на оригинала (и от печалбите) и последния малко по малко запада (или в най-добрия случай не може да се развива с пълния си потенциал). Това си е класическо паразитиране, което води до изчезването на полезни сайтове за сметка на появяването на боклуци. Някои хора вярват, че Google се грижи да изолира такива паразитиращи сайтове, но от пръв поглед на search резултатите е видно, че явно не много успешно (а теоретично погледнато -- няма и как да е иначе. Една добра система за контрол на съдържанието от тип "Оригинал-паразит" вероятно ще отнеме маса ресурси за работата си (да не говорим, че могат да се направят "филтри" за краденото съдържание, така че то да е леко модифицирано и съответно трудно за разкриване)).
  • Cloaking -- клоакинга е нещо елементарно, което обаче често се представя от SEO-тата за "върха на сладоледа". По същество (най-елементарно обяснено) представлява предоставяне на различно съдържание в зависимост от това кой го разглежда. Когато дойде google bot-а се представя едно съдържание на страниците (най-често автоматично генерирано или крадено), а когато се разглежда от обикновен посетител -- съвсем друго. Целта е да се заблуди google за полезността (в най-общ смисъл) на страницата. Преди време бях получил спам email в който ми рекламираха "cloacking device". Цената беше между $500 и $2000 в зависимост от екстрите. Това, което предлагаха за $500 в моя framework се постига с 5 реда код -- разпознавам, че се е домъкнал чичо ни google ('HTTP_USER_AGENT') и просто сетвам templates директорията да е тази с cloak съдържанието. Естествено могат да се добавят още много "благинки" като различен cloaking в зависимост от региона или езиковите предпочитания на потребителите. Това може да мине и за "персонализирано" съдържание… (!@#@). Истината обаче е, че cloaking-a може да се разпознае много лесно. Просто след google bot-а трябва да мине един проверяващ бот, който вместо да каже "аз съм Mozilla/5.0 (compatible; Googlebot/2.1…" да каже "аз съм Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US;" и cloaking-а е дотам… (поне най-елементарния).
  • Покупка на линкове. По принцип всеки може да си купи линкове. Идеята е да имаш колкото се може повече сайтове да сочат към теб, което се отчита от Google и съответно се вдига PageRank-a и позицията в резултатите. Проблемът е, че не всеки желае/може да си позволи да купи линкове. Не говорим за разни фирмени сайтове. Говорим за съвсем обикновени сайтове направени от хората, за да бъдат полезни. Такъв пример са всичките сайтове за Open Source (които от поне моя гледна точка са най-полезните). Такива сайтове се изграждат с много труд и усилия, за да популяризират и/или за поддръжка на някой OS продукт. Вижда някой SEO тарикат, че в тази ниша има доста хора, прави един свой сайт(ове), краде/генерира съдържание, купува 500-600 линка и след месец-два-три вече излиза по-напред от оригиналния сайт. Човек като тръгне да търси нещо за OS продукта и се натриса на SEO сайтовете.
  • Оптимизация за ботовете, а не за хората. Самия термин SEO казва всичко -- Search Engine Optimization. Самоцелното оптимизиране примерно за keywords density води до текстове, които са пренаситени умишлено с target keywords. Това най-малкото е досадно.

От казаното дотук човек може да си създаде впечатлението, че хората, които се занимават с SEO трябва да бъдат KOS (kill on sight). В интерес на истината обаче, трябва да си припомним добрата стара поговорка за лудия и зелника. Докато има възможност да се правят "шашми" ще има хора, които ги правят. Това в никакъв случай не означава, че всичкия SEO е черен. Имаи няколко съвсем "легални" практики:

  • оптимизиране на съдържанието да е едновременно удобно за хора и ботове. Един съвестен SEO може да ви препоръча някои неща, които да помогнат на вашия сайт да се "вижда" по-добре от ботовете, без това да влияе на преставянето пред обикновените посетители. Най-елементарните неща за които се сещам са:
    • ограничаване употребата на flash. Един изцяло (и единствено) flash сайт не само, че е доста тежък ами е и напълно безполезен по отношение на Search Engines. Идва google bot-а, вижда всичко на всичко нещо от сорта на "<embed src="/media/flash/intro_en.swf"… >, тегли една майна и си заминава моментално. Качването на XML sitemap помага, когато само intro страницата е flash.
    • ограничаване на безхаберното използване на изображения/картинки. Един сайт в който менюто е съставено от графични бутони (не с css сетнати bg) може да изглежда ефектно, но имайте предвид, че ботовете 5 пари не дават за това. Едно от нещата, които са най-важни са доброто индексиране са текстовете на линковете (това, което е между <a> и </а>). Тук трябва да се спомене и една чудовищна глупост, която се прави понякога, най-вече от графични дизайнери, които се занимават с web design -- слагането на даден текст като цяла картинка. Обикновено оправданието е, че "В броузера шрифтовете не ми излизат точно по същия начин, както в Photoshop-a/ Corel-a".
    • ограничаване безхаберното използване на Javascript и Ajax. От време на време попадам на сайтове, който използват javascript/ajax, за да си зареждат основното меню или content area-та. Това е меко казано безотговорно по отношение на bot-овете. С ajax-a могат наистина да се направят много ефектни неща, но неговото използване е, общо взето, като използването на flash -- ботовете не виждат съдържанието. Не се учудвайте ако вашия нов-ефектен-Web 2.0-10К евро сайт (почти) не индексиран.
  • оптимизиране структурата на сайта. Иманякои елементарни неща, които обаче често се пропускат:
    • регулярна проверка дали не са останали "висящи" страници -- понякога се случва след поредната промяна по сайта някоя от страниците му да остане "в нищото", т.е. никоя от другите страници да не сочи към нея. Допълнение на тази проверка е да се види дали няма "счупени" линкове, т.е. такива, които сочат към "нищото" (това обикновено се получава при преименуване на страници / файлове).
    • използване на Search Engine Safe URLs. Search Engine Safe URLs всъщност е "народното" наименование за PATH_INFO параметри. Идеята е да се заменят добрите стари GET параметри от типа /index.php?page=my_page&section=23 с нещо подобно на /index.php/page-my_page/section-23/. Втория вид е много по-удобен за ботовете (макар че те поумняха в последните години и се оправят значително по-добре с GET параметрите, отколкото едно време) и в същото време не променя с нищо user experience-a. Общо взето всеки по-читав framework (като например Tangra Framework for PHP (кхъ-кхъ :-))) има вградена поддръжка за PATH_INFO параметри и те могат да се ползват толкова лесно, колкото обикновените GET параметри.
  • изграждане на съвкупност от връзки. Тази част донакъде напомня на купуването на линкове, но има една основна разлика -- идеята е да се прави благонамерено и линковете от/към да са наистина полезни и смислени. Един SEO може да ви отмени в извършването на тази немалко досадна дейност (срещу заплащане, разбира се).

Общо взето това са ми първите впечатления от дебрите на SEO-то. За съжаление сега нямам време да продължа по темата, затова ще трябва да отложа за следващ постинг…


8 Responses to “SEO размисли”

  1. Доста добра статийка за SEO.
    За съжаление става ли въпрос за бизнес моралът не е водещ. Т.е., ако един (посредствен) SEO специалист може да се качи до топ10 в Гоогле с клоакване, то той едва ли би се подвуомил да го направи. Това е като с китайските стоки -- пълен боклук са, но се рейтват високо защото са евтини и се правят бързо. Нищо, че убиват всички качествени стоки около тях.

  2. Michel says:

    Само да допълня, че AJAX не е 'evil' спрямо search engines… Добре написаният AJAX код е много по-добро ре?ение от преди?ните 'DHTML страници'!

    Ако AJAX (JS/CSS/XMLHttpRequest) използва DOM интелигентно, то такава страница, първо, съдържа чист HTML/XHTML, и съответно, е достъпна за хората и ма?ините еднакво добре, и второ, ако в браузъра липсва поддръжка на JS, то тогава страницата си остава достъпна, навигацията работи, формите работят, и т.н.

    Така че е важно да различаваме добре написаните AJAX скритове от старовремските тежки JS/DHTML бози, които правеха невъзможно използването на една уеб страница / уеб приложение, изцяло! :)

    Моите $ 0.02 ;-)

  3. Огнян says:

    Да, сам по себе си Ajax-a не е зъл. Ло?ото е, че нерядко го използват зли хора. :-)

    "ако в браузъра липсва поддръжка на JS, то тогава страницата си остава достъпна"
    Това за съжаление е толкова трудоемко за реализиране, че просто ми се плаче. В моя фреймуърк си играх маса време докато направя формите да се генерират и с ajax функционалност и да могат да работят едновременно със и без javascript support. Единственото хубаво е, че много рядко се срещат клиенти, които настояват да работи и в двата режима (или поне като чуят цената и отсвирват единия :-)).

    Благодарско за 0,02 :-). Всичко върви по план -- до края на месеца ще изкарам за една бира.

  4. Michel says:

    Добре написаният AJAX е всъщност:

    Обикновен html. JS функионалността използва the DOM, така че ако няма JS, просто работи HTML-ът. Ако JS има, се появяват ефектите, финтифлю?ките, асинхронната връзка със сървъра (XMLHttpRequest -- макар че не си спомням, дали тя е свързана с JS) и тн :)

  5. Огнян says:

    Ммм, за съжаление не е точно така.
    Общо взето принципът е да се правят по две версии на всеки елемент, който може да е със/без js.
    Чистата се слага в , js w

  6. Michel says:

    Да, прав си… Работата е повече, ако се мисли в посока HTML/CSS или HTML+CSS+JS(AJAX). Но пък така потребителят е по-happy:) Виж например login при technorati.com. Ако има? JS/AJAX, се отваря малък div за логване направо върху страницата. Ако няма?, се отваря login html+css страница. Много добро ре?ение! :)
    \bulletprooof, дето се вика;-)\

  7. Огнян says:

    "по-happy", докато чуят цената :-)

  8. hho pwm says:

    Много ви благодаря за тази статия.Като цяло съм нова в тази сфера и сега се опитвам да взема някои полезни неща.Това, че всеки можеда си купи линк е добре за социалните мрежи.В днешно време те така са ни завзели и превзели, че едва ли можем да си представим ден без да сме сърфирали дори и за минута две.Пишете доста полезни неща и ще се радвам да продължавате.Има изключително много работа и кодове по HTML.

Leave a Reply

Notify me of followup comments via e-mail. You can also subscribe without commenting.

Внимание: Моля, въведете само ПЪРВИТЕ ТРИ цифри от картинката
Important: Please enter just the first three digits from the image