Андрей Светловя ещё довольно начинающим питонером написал средненький накрутчик каталогов с использованием прокси-баз(сам писал собиратель и проверяльщик) ,так что этими терминами не удивишь.Все эти ошибки,куки-шмуки очень очень легко достаются при помощи регулярных выражений.Разве что с https не работал.
Та да. Проще некуда!
Заголовки приходилось обрабатывать?
Куки поддерживать?
gzip на лету распаковывать?
chunks склеивать?
По https работать?
Коды ошибок обрабатывать - редирект, например?
Авторизацию поддерживать?
С proxy работать?
Список не окончен…
Примитивный протокол, одним словом!!!
Протокол простой,особенно по сравнению со всякими icq,torrent и прочей нечисти,где вместо простых,понятных любому слов,нужно использовать какие-то потоки байтов…
И вообще,мы ведь не браузер пишем,а мелкую утилитку для отправки простых данных.Если я ошибся,тогда лучше постою в сторонке.
А так вот заглянул в книгу Сузи и тут же нашел простое решение:
import urllib
data = {“search”: “Python”}
enc_data = urllib.urlencode(data)
f = urllib.urlopen("http://searchengine.com/search", enc_data)
result = f.read()
print result
У меня лично работает.
И автору рекомендую проверять:можно ли обойтись методом GET,ведь не на всех сайтах проверяется каким методом отправлены данные