Форум сайта python.su
Господа, нужно реализовать одновременную закачку файлов из нескольких потоков, причём каждый поток пустить через отдельный прокси.
Сейчас у меня уже есть просто многопоточная закачка, без прокси. Я использую urllib2 и самостоятельно отслеживаю количество загруженных байт для определения скорости загрузки в реальном времени.
Но urllib2, похоже, поддерживает только HTTP прокси, а мне нужны ещё и SOCKS.
Необходимо прикрутить их поддержку, но при этом сохранить функциональность по отслеживанию скорости, решения “указал путь к файлу и он там как-то автоматически скачался” не подойдут.
Подскажите, как этого добиться?
Нагуглил некий SocksiPy, но в примере похоже задаётся один глобальный прокси на все соединения, что мне не подходит.
Отредактировано Dwarf (Март 5, 2013 18:56:19)
Офлайн
Библиотека pycurl позволяет работать с SOCKS-проксями. Также там были какие-то средства для отслеживания скорости, насколько я помню.
Офлайн
lorien
не хотелось бы её использовать. Во-первых она давно не обновляется, во-вторых под Windows её надо собирать, что неудобно, ибо желательно, чтобы всё ставилось через pip.
Офлайн
Dwarf
lorienне хотелось бы её использовать. Во-первых она давно не обновляется, во-вторых под Windows её надо собирать, что неудобно, ибо желательно, чтобы всё ставилось через pip.
Отредактировано plusplus (Март 5, 2013 21:18:13)
Офлайн
Ещё вот такое нашёл: http://urlgrabber.baseurl.org/
Не пробовали?
Офлайн
Ещё вот такое: human_curl. Как он в сравнении с pycurl?
Отредактировано Dwarf (Март 5, 2013 22:18:29)
Офлайн
Юзаю pycurl для работы с сетью, очень часто, нареканий нету.
Офлайн
DwarfЭто обертка над pycurl.
Ещё вот такое: human_curl. Как он в сравнении с pycurl?
Офлайн
DwarfЭто тоже обертка над pycurl.
Ещё вот такое нашёл: http://urlgrabber.baseurl.org/Не пробовали?
Офлайн
DwarfХеровая, давно не обновлявшаяся обертка, которая пытается косить под requests, но не может даже post.
Ещё вот такое: human_curl. Как он в сравнении с pycurl?
Офлайн