Партнеры
IT-компании



Каталог скриптов
Колумнисты
Команда loderz1.ru 04.10.2020
Конференция SEMcamp-2012

28 сентября в Киеве прошла вторая конференция по интернет-продвижению продуктов и услуг на зарубежные рынки SEMcamp-2012.

БЛОGГЕР 08.03.2020
Оптимизация шаблона Blogger и Google Code

Каждый, кто хоть раз просматривал шаблон блога, созданного на Blogger, видел, как там разбросаны коды CSS и JS. 

Есть предложение оптимизировать код шаблона.

БЛОGГЕР 22.10.2019
Спасибо Платону Щукину

Как известно Яндекс призывает вебмастеров создавать качественные сайты для людей, но при этом за частую его сервисы сами дают сбои ...

Подробнее читайте в блоге БЛОGГЕР>>>

Юмор
Яндекс и Гугл

Яндекс - найдется всё!
Google - ...

далее...
Комментарии
Travel_man 23.02.2015
Немного об украинских копирайтерах.
Украина вступила на путь «цехового производства» в области копирайтинговых услуг.
Недоразвитость целого сегмента рекламного рынка...
к материалу >>
 
Smart 24.02.2015
Специализацию в копирайтинге никто не отменял, так что вряд ли это сверхинновация)...
к материалу >>
 
Олег 27.02.2015
Ну чтож это же не статья от BUFO :) Так что секреты можно и пропалить пару штук...
к материалу >>
 
Главная / Новости / SEO-софт / Методы выхода из ситуации с отменой операторов link и anchor  
добавлено 01.09.2015

Методы выхода из ситуации с отменой операторов link и anchor

Мы прочитали все топики на значимых форумах оптимизаторов, посвященные этой проблеме, и сделали подборку интересных мыслей:

Нововведение, от которого есть вред оптимизаторам, а Яндекс не получает никакой пользы. все равно все ключевые фигуры рынка останутся на месте. Просто неприятная оплеуха ради оплеухи.

Касательно непотов. А что мешает нам в полностью автоматическом режиме фигануть запрос "длиннющий текст ссылки какой попало", в надежде отловить донор+реципиент?

Яндекс тупо обрезает у SEO главное - аналитику...

P.S. Яндекс нас подводит к комплексной работе по трафику.

Господа, зачем так пугаться? Беки смотрите по альтернативным ПС, благо их достаточно.

Проверять уникальность и проч. можно другими способами, язык запросов богат и вариативен.

>Как прикажешь отличить уникальность анкора? Индексацию его? и прочее.

Брутфорсом. Написать бота, который будет ходить по просторам рунета (начать можно с сапы), находить внешние ссылки с длинными анкорами, и искать тупо текст ссылки в кавычках. В надежне найти комбинацию "донор" + "реципиент по ссылки" + и больше никого.

Для начала надо сказать спасибо создателям Яндекса и его языка запросов, что так долго давал возможность для интересных анализов и примеров как строить соответствующий язык для своих локальных поисков по сайтам.

Шаг по отключению "лишних операторов" собственно был вполне предсказуем и ранее, если пытаться заглядывать в перспективы, а не только запросами сервера терзать. Ибо во-первых сверхподавляюще широким массам пользователей, всякие хитрые операторы нафиг не нужны - это если с точки зрения отмены неудачных фичей. А во-вторых - зачем лишняя нагрузка на сервера, хоть и небольшая но зачем винту трещать не для пользователя - это с точки зрения коммерческой. Ну, а в третьих - алгоритм работы системы, это самое ноу-хау, зачем же давать возможность его анализировать и самому себе рубить свой же сук - это, наконец, с точки зрения озвученного стремления к закрытости.

Параноики, которые считают, что борятся именно с ними, или с их "отраслью" - как и все параноики, очень о себе высокого мнения. Яндексу интересны его капитоловложения, сохранность его бизнеса и технологических разработок, наконец дилеры компании, которые заносят ежемесячно в контекст большие суммы денег. А оголтелое SEO думает, что это с ними - вот конкретно с Васей Сеошкиным борется Яндекс, он еще более преисполняется о себе высокого мнения, как же ж блин он такой значимый. Яндексу дела до вас нет - расслабьтесь.

Вообще, я конечно, гнусный капиталист, но для крупных и средних компании на данный конкретный момент минусов не вижу. Плюсы вижу. Даже для небольших компаний - тоже еще бабушка надвое сказала больше плюсов, чем минусов. А вот для фрилансеров, сидящих дома в тапках - минусов масса. Ну так это ж отлично, не мытьем, так катаньем вдолбится людям - работать надо в офисе, дома надо отдыхать с семьей.

Кстати, у сеток сателлитов появится новый опозновательный знак - в robots.txt запрет на индексацию как минимум в Яхе и MSN ;)

У клиента будет меньше шансов напороться с первой попытки на фрилансера, который им только SEO и будет втюхивать ибо маржа в карман самая большая. А так глядишь с первого выстрела попадет в компанию (к коллегам нашим или к нам) - которая может не только SEO, но и контекст и медийку и кривой сайт подкорректировать или новый сайт разработать и вообще глядит не только с точки зрения маржи на месяц, но и с точки зрения "а как же ж сделать клиенту выгоднее, чтобы он нам по гроб жизни был благодарен и принес компании в итоге куда больше маржи".

Парсить по уникальным доменам, пробивая ссылки на бан в яндексе. Разделять морды разумееться по пути.., при желании откидывая также по тИЦ каждый бэк, также смотреть с анкором или нет ссылка, но это уже выкачивать придёться или пробивать через кэш. В результате работы получаем спиок, при желании его можно сделать в стиле бэков яндекса . Вот уже собственно замена минимум...

Илья Сегалович как раз привел пример: "есть продукты Microsoft с закрытым кодом, плохие, но мы все ими пользуемся. А есть Open Office - с открытым кодом, но им пользоваться невозможно".

По сабжу - детский сад, а не удар по оптимизаторам, у нас есть как минимум еще 3 поисковика, которые в сумме в том же Yazzle (после их реализации) дадут еще лучшую подборку бэков.

Минусы

Станет намного сложнее определять бюджет

Под шумок появится много мошенников. Сколько бэков? Какое качество сайта?

Плюсы

Новичков будет поменьше - им будет сложней заабатывать

Следовательно, те, кто в теме будут зарабатывать больше

Мысли:

- Нововведения понравятся многим! вернее как всегда тем, кто нечист на руку или "торгует в этой войне оружием";

- Некоторым придется немного подучить язык запросов причем не одной ПС, а 2-3; не будучи сильным оптимизатором, я вижу способы жить без удаленных операторов, поэтому ничего страшного не случилось;

- Методы коврового бомбометания получат огромное распространение, дешевые ссылки у общей массы участников станут более востребованными, SAPE, XAP от этого только выиграют;

- Фрилансеры в тапочках никуда не денутся, т.к. они на порядок ближе к своим клиентам и могут вести одного-двух клиентов, попутно наслаждаясь жизнью, а убедить потратить больший ссылочный бюджет — дело техники;

- Тем, кто ведет свои прибыльные проекты, им проще всего, принципа "ссылки на хороший контент" никто не отменял, больше будут думать о внутренней структуре сайта, чтобы стабильней собирать низкочастотку.

Показательно, что изменения были анонсированы накануне 1 сентярбя. Их (изменений) целевой аудитории был дан чёткий сигнал: идите учиться по специальности.

Ещё одно забавное наблюдение: распределение по времени суток негативных и положительных отзывов о нововведении и корреляция его со стандартным течением темы про апдейты. Те, кто ночами насилует семониторами выдачу, многоголосым хором пропели своё возмущение. А кто делом занимается, пришли утречком и сдержанно радуются.

А "сохраненная копия" останется? Если да, то не так все плохо... Будем строить веб-граф, считать свой PR... Ну или для начала, просто анализировать " сохраненные копии", искать тексты ссылок...

Второй способ - Будем делать уникальные ссылки и отслеживать их в анкор-файле Ну или просто - поставили уникальную ссылку - акцептор должен быть найден "по ссылке", а донор просто по тексту. Если донор по тексту ссылки не найден - ссылка не проиндексирована...

Но если Яндекс пойдет дальше и не даст возможность найти сайт по тексту ссылки, которая стоит на сайте...

Будем действовать по принципу - если я поставил ссылку на том сайте, то она должна быть проиндексирована... А sape и xap дадут возможность глядеть логи и отслеживать заходы Индексатора Яндекса, вот...

Да что вы в самом деле скока что стоить будет - прикинуть можно будет примерную стоимость по директу - сколько клик стоит - ну в самом то деле.

Непот проверять - да черт с ним - несколько сетей тематичных с несколькими сотенями сайтов массово прокаченых внутрянкой дешовой - и живи пряники жуй, в потолок плюй.

Яндекс - отличный ход.

Т.е денежные становятся богаче, бедные - беднее. Что там нам К. Маркс по этому поводу говорил то?

Вбиваем урл в поисковую строку и получаем количество страниц в индексе со своим урлом.

Вот вам и примерное количество бэклинков на ваш сайт. Грубовато конечно выходит, но тоже метод беки, который Яндекс показывает и беки, которые Яндекс учитывает 2 разных множества, хоть они и пересекаются. Так что в принципе не так уж все изменилось, будут говорить: "беги который Яху/МСН/Гугл показывает и беки, которые Яндекс учитывает - 2 разные вещи, хоть иногда они и совпадают" =)

Кстати, а что изобретать велосипед? У кого есть SEmonitor, то посмотреть беки и анкоры дело техники, даже быстрее получиться.

Сначало запускаем программу "внешние ссылки", сканируем поисковики. Потом экспорт в эксель урлов и анкоров. В экселе легко можно скомпонавать табличку из полученых результатов: домен, страница, анкор.

Потом быстренько проверить все домены на индексацию, программа "Индексация сайт".

И все, список доменов, которые индексирует яндекс и на которых есть ссылочка собран. Правда трафика уйдет.

этими операторами пользуются только оптимизаторы и чаще всего автоматом. Таким образом это - "промышленный способ извлечения информации" (Садовский)..

вот.. что касается SEO ... Илья считает что SEO не умрет, но должно в большей степени становиться результатом работы человека-специалиста. вобщем Яндексу seo нравится, но не нравится автоматизированный индустриальный подход и он будет с ним бороться и дальше.

Кавычки будут работать.

Раньше была большая разница между образованным и умным оптимизаитором, который думал и анализирован и ламером, который скупал все ссылки подряд. Теперь ударили как раз по умным, которые анализировали - им станет анализировать труднее. А ламер как скупал весь непот - так и будет

Есть ли информация о фильтре "ты последний"?

Сошлись во мнении, что такой фильтр накладывается за неуникальный контент

Посмотрите:

yandex.ru/yandsearch?text....yandex.ru*%22

yandex.ru/yandsearch?text....yandex.ru*%22

есть над чем подумать.

Для своих ресурсов подойдет google.com/webmasters - все беки на сайт от google

Рефереры надо собирать со страниц, по которым слишком редко ходят живые люди, например со страниц каталогов, или из футера сайтов, где текст написан двухпиксельным шрифтом. Ведь человек может и за год не кликнуть там, и в этом смысле именно робот-кликер поможет сайту-акцептору понять, что на него где-то в интернете стоят ссылки, которые несмотря ни на что учитываются поисковыми системами. Под сбором "реферер-ссылок" я подразумеваю программу, которая будет парсить логи апача на предмет поиска в них REFERER-строк.

>Yahoo, MSN, Google, Altavista дают вместе не плохой результат.

- Yahoo - да, но скорость обновления инфы довольно низка.

- MSN - еще с весны закрыл показ бэков.

- Google - количество показываемых бэков крайне низко и неактуально. Апдейтится раз в квартал.

- Altavista - "search results on AltaVista are powered by Yahoo! Search Technology" (altavista.com/addurl/default)

- Rambler - показывает бред, а не бэки.

- Про апорт можно вообще не говорить.

Есть надежда на Вебальту, А. Гурешов на их форуме писал, что будут спецоператоры.

Тупо иcкать вхождение имя домена в анкоре. Такие бэки можно почти в любом поисковике посмотреть, только толку от них ноль. А вообще, создателям сервисов - установите Яндекс.Сервер локально, почитайте доку и поймете, что насиловать Яндекс на предмет найти способ получать бэки бесполезно (там есть некоторые моменты, которые пересекаются с большим поиском).

 

Комментарии
Smart 01.09.2015

Еще мысли в тему:

а)Для начала нужно понять следующее - на данном этапе развития идеи вот так слету отсканировать весь рунет будет слишком тяжело. Нужно, для получения первых рабочих результатов сузить поле сканирования следующим методом:

Берем просто лист-список всех RU доменов - у меня где-то есть апрельский этого года, у регистраторов точно есть самый новый. Это 700тыс где-то. Простукиваем на отклик - процентов 20% отбросится.

Отбрасываем 80% с тицем более 0 и/или Pr1 - по моему см у Тутубалина есть цифры по плотности распределения по тиц уже. - Там 43 тысячи всего сайтов в конце прошлого года было. Отбрасываем урлы-сайты не в индексе Яндекса. Получаем списочек актуальных урлов в 50 тысяч доменов. Вот - вот эти 50 000 сайтов и оказывают в 80% случаев влияние на все ссылочное в рунете.


Запускаем распределенных пауков и через небольшое время получаем список всех более менее актуальных мордоссылок. Это - уже хоть что-то. Это уже показатели и не столь технически сложные добываемые.
С этим списком потом можно разную аналитику делать в дальнейшем кстати.

Зачем ВСЕ ссылочное? Хотя бы самое актуальное ссылочное выявить - уже дело будет.

б)При развитии системы - увеличение сканирования на глубину +n от главной. Опять же в первую очередь по критериям в первую очередь высокоавторитетных данных.
Обновление раз в месяц индекса морд уже будет легче делать по дате отклика изменения страницы - реально ж не так много морд каждый месяц обновляются.

в)Можно отсканировать основные каталоги рунета - тоже даст неплохую базу.

Форекс Трейдер 01.09.2015

Нет, не все так безнадежно.

Русские никогда не сдаются ;)

promo 02.09.2015

Признаться, не понимаю того шума, который подняли вокруг данной темы.
Соглашусь, что бкэи - важная часть в исследовании статистики сайта. Однако, как здесь верно подметили, общее количество бэков и количество, которое учитывает Яндекс - разные вещи. В этом плане мне нравится стат MSN. Этот поисковик потихоньку набирает популярность в рунете - это наблюдения по моим сайтам с начала этого года. Так что всегда есть альтернативные вариатны.

Amstel 03.09.2015

Если рассуждать глобально, то не поменялось ничего особо. На практике было очень удобно смотреть откуда ведут на конкурентов ссылки:)

P.S. Меняюсь ссылками, контакты на сайте.

cepik 03.09.2015

Не ссылками едиными. Правильная статья.

Artembs 10.11.2016

А есть ли программа или скрипт определяющая бэки с анкорами на сайт из списка бэков?
Сохранить в Excel можно через yahoo.com

iqqhqoi 05.04.2019

chu9QG yhhaniireiox, [url=/bcjjdxobauuf.com/]bcjjdxobauuf[/url], [link=/onsoqwnmodwe.com/]onsoqwnmodwe[/link], /ljwxurdssrlq.com/

Написать комментарий
Имя: * 
Email: * 
  Перегрузить рисунок

 
Отправить