Уведомления

Группа в Telegram: @pythonsu

#1 Окт. 30, 2013 21:48:45

vandrouny
Зарегистрирован: 2013-10-12
Сообщения: 1
Репутация: +  0  -
Профиль   Отправить e-mail  

Ускорить urlopen

Доброго дня!
Столкнулся вот с какой задачей: необходимо открыть и прочитать много-много веб-страниц. Да, urlopen справляется с задачей, но там около 15 тысяч страниц, и время получается приличное. Есть ли какой-либо способ пакетной обработки, или, возможно, стоит распараллелить? (в таком случае, прошу ткнуть меня носом в пример, так как в питоне я ещё, в общем-то, новичок.
Заранее спасибо

Отредактировано vandrouny (Окт. 30, 2013 21:49:30)

Офлайн

#2 Окт. 30, 2013 22:53:05

JOHN_16
От: Россия, Петропавловск-Камчатск
Зарегистрирован: 2010-03-22
Сообщения: 3292
Репутация: +  221  -
Профиль   Отправить e-mail  

Ускорить urlopen

Я бы рекомендовал Queue, высокоуровневая библиотека, проще разобраться будет. Вот моя статья на счет этого с кучкой примеров.



_________________________________________________________________________________
полезный блог о python john16blog.blogspot.com

Офлайн

#3 Окт. 31, 2013 05:07:25

plusplus
От:
Зарегистрирован: 2009-01-05
Сообщения: 418
Репутация: +  15  -
Профиль   Отправить e-mail  

Ускорить urlopen

1) С помощью threadpoolexecutor распараллелить.
2) Использовать grab.spider
3) Использовать Scrapy



Офлайн

#4 Окт. 31, 2013 06:05:21

o7412369815963
От:
Зарегистрирован: 2009-06-17
Сообщения: 1986
Репутация: +  32  -
Профиль   Отправить e-mail  

Ускорить urlopen

Вот пример асинхронного загрузчика на торнадо http://www.py-my.ru/post/4f278211bbddbd0322000000

Офлайн

Board footer

Модераторировать

Powered by DjangoBB

Lo-Fi Version