понедельник, 1 октября 2007 г.

Ошибки snoopy class в https режиме

Сранный снупи класс вывел меня из себя. Недавеча надо было сделать авторегалку по https протоколу. Ну недолго думая приступил, понятно что пришлось скачать бинарный curl с openssl поддержкой. Долго ругалось на какой то флаг, погуглил, лекарство сказало скачать последний openssl и заменить libeay32.dll или как там его, впрочем пофиг.

Следующее добило:
Ошибка, при fetch'e страницы, долбиться в порт 80 вместо 443 если не указать порт - делаем окол 214 строки так:

if(!empty($URI_PARTS["port"]))
$this->port = $URI_PARTS["port"];
else
$this->port = 443;

Ошибка при сабмите формы, добавляем тоже самое только в функцию submit.

И главное разрабочики снупи любимого, неправильно сделали передачу cookies в бинарный курл, кука передается urlencode'нутая.

лечиться комментированием:

$cookie_str .= $cookieKey."="./*urlencode*/($cookieVal)."; ";
около 984 строки.

Вобщем надеюсь, кому то это поможет в решении задачи над которой бился целый день. Жаль что, сразу нету пофиксенного варианта сберегло бы массу времени на другие проекты.

вторник, 25 сентября 2007 г.

1000$ в день? Возник в разговоре вопрос.

И нарисовались два ответа:
Первое долбить до умопомрачения 1-3 партнерки в связке, выходя на доход 300-400$ с каждой минимум.(italy,ppc,codecs)
либо:
найти 30 ниш мелких в которых траффик получить гораздо легче и зарабатывать 1000$ в месяц.
что около 30-35$ в день.

Что лучше?

понедельник, 24 сентября 2007 г.

Бан блога, легко ли этого добиться?

Оказывается, очень легко.
Достаточно, да да не удивляйтесь. Создать блог на блоггере.
Создать три статьи - копи паст, интересных статей с социалок непопулярных.
Впоследствии добавить их сразу в более крупную социалку.
Ну и грязь тут, поставить ифрейм, c style="display:none;"
Получаем 4ре входящих линки.
1ая Updated blogs блоггера.
3и других с социалки + возможно кто то парсить тягает какие нибудь фиды. и следовательно возможно получить еще штук 10 ссылок.
На утро морда в индексе, через 24 часа бан, без возвратный уже в течение 2ух недель.

Тут три варианта:
Дублированный контент - сделанный ради контента(внешнего вида) через ctrl+c ctrl+v в блоггер. (маловероятно)
Слишком много ссылок, маловероятно, ссылки чистые не засранных линкферм, стандартная ручная эмуляция пользователя.(маловероятно)
ифрейм или display:none ?? (большая вероятность)
Думаю не ифрейм, но и display:none я в css могу юзать вкупе с ифреймом для сбора статистики.
Вывод либо гугл охренел в корень, либо есть 4ый фактор.
Камменты?

воскресенье, 23 сентября 2007 г.

Динамический дорген, как не кешировать текст.

Проблема динамики, она может отдавать одну и ту же страницу с разным текстом при запросе.
Сделать постоянной ее можно либо кешируя (и занимая место на диске), а можно парся урл, получать какое-либо значение, и на основе его - выдавать один и тот же текст.
К примеру
domain.com/42.html

распарсить 42 нет проблем
затем делаем вот как :)
$urlnum = 42;
$startpos = $urlnum*100;
$keywords = file("keys.txt");
for($i=$startpos;$i<$startpos+100;$i++){
echo $keywords[$i];
}

в данном примере на страницу уходит по 100 кейвордов последовательно из массива.
Кейворды на страницах не пересекаются. Ну ессно можно добавить алгоритм вкрапления любого кея к примеру $keywords[$startpos]. или добавить нграммы в последовательности.

Первый пост

hello world все дела