Найти - Пользователи
Полная версия: Помогите разобраться, почему не работает scrapy
Начало » Python для новичков » Помогите разобраться, почему не работает scrapy
1 2
laughingman
Приветствую. Пожалуйста проясните ситуацию.
Пытаюсь разобраться scrapy написал тестового паука который должен парсить сайт с https. Запускаю получаю вот такую ошибку
 2019-07-25 14:11:07 [scrapy.utils.log] INFO: Scrapy 1.6.0 started (bot: tutorial)
2019-07-25 14:11:07 [scrapy.utils.log] INFO: Versions: lxml 4.3.3.0, libxml2 2.9.9, cssselect 1.0.3, parsel 1.5.1, w3lib 1.20.0, Twisted 19.2.0, Python 2.7.5 (default, Apr  9 2019, 14:30:50) - [GCC 4.8.5 20150623 (Red Hat 4.8.5-36)], pyOpenSSL 0.13.1 (OpenSSL 1.0.2k-fips  26 Jan 2017), cryptography 1.7.2, Platform Linux-3.10.0-957.1.3.el7.x86_64-x86_64-with-centos-7.6.1810-Core
2019-07-25 14:11:07 [scrapy.crawler] INFO: Overridden settings: {'NEWSPIDER_MODULE': 'tutorial.spiders', 'SPIDER_MODULES': ['tutorial.spiders'], 'ROBOTSTXT_OBEY': True, 'BOT_NAME': 'tutorial'}
Traceback (most recent call last):
  File "/usr/bin/scrapy", line 10, in <module>
    sys.exit(execute())
  File "/usr/lib/python2.7/site-packages/scrapy/cmdline.py", line 150, in execute
    _run_print_help(parser, _run_command, cmd, args, opts)
  File "/usr/lib/python2.7/site-packages/scrapy/cmdline.py", line 90, in _run_print_help
    func(*a, **kw)
  File "/usr/lib/python2.7/site-packages/scrapy/cmdline.py", line 157, in _run_command
    cmd.run(args, opts)
  File "/usr/lib/python2.7/site-packages/scrapy/commands/crawl.py", line 57, in run
    self.crawler_process.crawl(spname, **opts.spargs)
  File "/usr/lib/python2.7/site-packages/scrapy/crawler.py", line 171, in crawl
    crawler = self.create_crawler(crawler_or_spidercls)
  File "/usr/lib/python2.7/site-packages/scrapy/crawler.py", line 200, in create_crawler
    return self._create_crawler(crawler_or_spidercls)
  File "/usr/lib/python2.7/site-packages/scrapy/crawler.py", line 205, in _create_crawler
    return Crawler(spidercls, self.settings)
  File "/usr/lib/python2.7/site-packages/scrapy/crawler.py", line 55, in __init__
    self.extensions = ExtensionManager.from_crawler(self)
  File "/usr/lib/python2.7/site-packages/scrapy/middleware.py", line 53, in from_crawler
    return cls.from_settings(crawler.settings, crawler)
  File "/usr/lib/python2.7/site-packages/scrapy/middleware.py", line 34, in from_settings
    mwcls = load_object(clspath)
  File "/usr/lib/python2.7/site-packages/scrapy/utils/misc.py", line 44, in load_object
    mod = import_module(module)
  File "/usr/lib64/python2.7/importlib/__init__.py", line 37, in import_module
    __import__(name)
  File "/usr/lib/python2.7/site-packages/scrapy/extensions/memusage.py", line 16, in <module>
    from scrapy.mail import MailSender
  File "/usr/lib/python2.7/site-packages/scrapy/mail.py", line 25, in <module>
    from twisted.internet import defer, reactor, ssl
  File "/usr/lib64/python2.7/site-packages/twisted/internet/ssl.py", line 230, in <module>
    from twisted.internet._sslverify import (
  File "/usr/lib64/python2.7/site-packages/twisted/internet/_sslverify.py", line 14, in <module>
    from OpenSSL._util import lib as pyOpenSSLlib
Посмотрел, в интернетах говорят вот такую штуку сделать
ip install pyopenssl --user --upgrade
Сделал, увидел что ничего не произошло, так как поползли сообщения
 Collecting pyopenssl
  Cache entry deserialization failed, entry ignored
  Cache entry deserialization failed, entry ignored
  Downloading https://files.pythonhosted.org/packages/01/c8/ceb170d81bd3941cbeb9940fc6cc2ef2ca4288d0ca8929ea4db5905d904d/pyOpenSSL-19.0.0-py2.py3-none-any.whl (53kB)
    100% |&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;| 61kB 6.9MB/s
Collecting cryptography>=2.3 (from pyopenssl)
  Cache entry deserialization failed, entry ignored
  Cache entry deserialization failed, entry ignored
  Downloading https://files.pythonhosted.org/packages/97/18/c6557f63a6abde34707196fb2cad1c6dc0dbff25a200d5044922496668a4/cryptography-2.7-cp34-abi3-manylinux1_x86_64.whl (2.3MB)
    100% |&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;| 2.3MB 191kB/s
Collecting six>=1.5.2 (from pyopenssl)
  Cache entry deserialization failed, entry ignored
  Cache entry deserialization failed, entry ignored
  Downloading https://files.pythonhosted.org/packages/73/fb/00a976f728d0d1fecfe898238ce23f502a721c0ac0ecfedb80e0d88c64e9/six-1.12.0-py2.py3-none-any.whl
Collecting cffi!=1.11.3,>=1.8 (from cryptography>=2.3->pyopenssl)
  Cache entry deserialization failed, entry ignored
  Downloading https://files.pythonhosted.org/packages/d5/a1/7e366f126fcd72cbc39a96166fa2b39d52808a233c73bf6405714277a852/cffi-1.12.3-cp34-cp34m-manylinux1_x86_64.whl (429kB)
    100% |&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;| 430kB 2.6MB/s
Collecting asn1crypto>=0.21.0 (from cryptography>=2.3->pyopenssl)
  Cache entry deserialization failed, entry ignored
  Cache entry deserialization failed, entry ignored
  Downloading https://files.pythonhosted.org/packages/ea/cd/35485615f45f30a510576f1a56d1e0a7ad7bd8ab5ed7cdc600ef7cd06222/asn1crypto-0.24.0-py2.py3-none-any.whl (101kB)
    100% |&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;&#9608;| 102kB 8.3MB/s
Collecting pycparser (from cffi!=1.11.3,>=1.8->cryptography>=2.3->pyopenssl)
  Cache entry deserialization failed, entry ignored
Installing collected packages: six, pycparser, cffi, asn1crypto, cryptography, pyopenssl
Successfully installed asn1crypto-0.24.0 cffi-1.12.3 cryptography-2.7 pycparser-2.19 pyopenssl-19.0.0 six-1.12.0
You are using pip version 9.0.1, however version 19.2.1 is available.
You should consider upgrading via the 'pip install --upgrade pip' command.

Что меня смущает
сторочка You are using pip version 9.0.1, however version 19.2.1 is available. хотя есть набираю pip -V
то получаю
pip 19.1.1 from /var/www/test/test/lib64/python3.4/site-packages/pip (python 3.4)
ну и что собственно к
python -V
Python 3.4.10
А когда запускал паука в разделе INFO фигурировала строчка Python 2.7.5 (default, Apr 9 2019, 14:30:50)
что это и как с этим быть?
FishHook
laughingman
Сделал, увидел что ничего не произошло, так как поползли сообщения
в этих сообщениях ничего плохого нет, чего вы испугались то? Вам компьютер сообщает, какие пакеты он устанавливает. Более того, вам пишут в конце
laughingman
Successfully installed asn1crypto-0.24.0 cffi-1.12.3 cryptography-2.7 pycparser-2.19 pyopenssl-19.0.0 six-1.12.0
ну то есть успешно установлено
laughingman
Так я не испугался, собственно суть проблемы, я пытаюсь запустить паука а мне вываливаются ошибки которые я написал в первом блоке. Ну то есть не получается пропарсить сайт с https
Плюс к этому в блоке INFO Python 2.7.5 (default, Apr 9 2019, 14:30:50) при этом когда я пишу python -V вижу сообщение Python 3.4.10
Пошел cd /usr/lib и переименовал mv python2.7 _python2.7 паук вообще перестал запускаться
 (test) [root@centos-s-1vcpu-1gb-nyc1-01 tutorial]# scrapy
Traceback (most recent call last):
  File "/usr/bin/scrapy", line 6, in <module>
    from scrapy.cmdline import execute
ImportError: No module named scrapy.cmdline


py.user.next
laughingman
Что меня смущает
сторочка You are using pip version 9.0.1, however version 19.2.1 is available. хотя есть набираю pip -V
то получаю
pip 19.1.1 from /var/www/test/test/lib64/python3.4/site-packages/pip (python 3.4)
ну и что собственно к
python -V
Python 3.4.10
А когда запускал паука в разделе INFO фигурировала строчка Python 2.7.5 (default, Apr 9 2019, 14:30:50)
что это и как с этим быть?
Для каждого питона свой pip. Для второго питона - просто pip, для третьего питона - pip3. И scrapy тоже разделён на python-scrapy и python3-scrapy.
laughingman
То есть, если я запускаю scrapy для второго питона то scrapy а для 3 python3-scrapy?
А устанавливаются они то же отдельно?
py.user.next
laughingman
А устанавливаются они то же отдельно?
Ты их устанавливаешь. python-scrapy и python3-scrapy - это имена пакетов в репозитории Linux. А потом ты их импортируешь в скрипте на питоне, где сверху написано, какой питон этот скрипт будет выполнять
  
#!/usr/bin/python
  
#!/usr/bin/python3
Либо, если декларации нет в скрипте, ты сам скрипт выполняешь вторым питоном или третьим питоном.
python script.py
python3 script.py
А scrapy подтянется уже соответствующий - тот, который в этом питоне установлен. В любом скрипте он будет выглядеть:
  
import scrapy
То есть они одновременно могут быть установлены, потому что это не Windows, где может быть установлено только что-то одно. В Linux ты можешь ставить хоть десять питонов и хоть двадцать разных scrapy в каждом из них.

Если же ты через pip ставишь, то для каждого питона свой pip. Для второго питона надо запускать pip, а для третьего питона надо запускать pip3. И каждый pip знает, для какого питона ему брать версию scrapy из хранилища пакетов https://pypi.org/ .
laughingman
cd /usr/lib
ls -l
total 32
drwxr-xr-x. 2 root root 6 Jan 14 2019 binfmt.d
lrwxrwxrwx 1 root root 10 Jun 4 09:02 cpp -> ../bin/cpp
drwxr-xr-x. 3 root root 64 Apr 11 2018 debug
drwxr-xr-x. 4 root root 236 Jan 28 23:53 dracut
drwxr-xr-x. 4 root root 12288 Jan 28 23:58 firmware
drwxr-xr-x. 3 root root 19 Mar 29 09:03 fontconfig
dr-xr-xr-x. 2 root root 6 Apr 11 2018 games
drwxr-xr-x 3 root root 33 Apr 24 17:24 gcc
drwxr-xr-x. 3 root root 21 Jan 28 23:52 grub
drwxr-xr-x. 6 root root 76 Jan 28 23:54 kbd
drwxr-xr-x. 2 root root 56 Jan 28 23:54 kdump
drwxr-xr-x. 3 root root 23 Jan 14 2019 kernel
drwxr-xr-x. 2 root root 55 Jun 4 09:02 locale
drwxr-xr-x. 2 root root 33 Jan 28 23:54 modprobe.d
drwxr-xr-x. 3 root root 39 Jan 28 23:54 modules
drwxr-xr-x. 2 root root 6 Jan 14 2019 modules-load.d
drwxr-xr-x. 2 root root 50 Jan 28 23:53 polkit-1
drwxr-xr-x. 3 root root 27 Apr 9 17:31 _python2.7
drwxr-xr-x 3 root root 27 Jun 6 12:08 python3.4
drwxr-xr-x 3 root root 27 Jun 6 12:27 python3.6
drwxr-xr-x. 6 root root 4096 Jun 6 14:15 rpm
dr-xr-xr-x. 2 root root 6 Apr 11 2018 sse2
drwxr-xr-x. 2 root root 85 Jan 28 23:53 sysctl.d
drwxr-xr-x. 13 root root 4096 Jan 28 23:54 systemd
drwxr-xr-x. 2 root root 4096 Jul 15 12:15 tmpfiles.d
drwxr-xr-x. 12 root root 237 Jan 28 23:54 tuned
drwxr-xr-x. 4 root root 216 Jan 28 23:53 udev
drwxr-xr-x. 2 root root 80 Nov 5 2018 yum-plugins

python3.4 scrapy crawl spider_model_lavka
python3.4: can't open file ‘scrapy’: No such file or directory

а вот без указания питона
scrapy crawl spider_model_lavka
Traceback (most recent call last):
File “/usr/bin/scrapy”, line 6, in <module>
from scrapy.cmdline import execute
laughingman
А что нужно делать если при устновкe scrapy вот такая ошибка вываливается
  Running setup.py install for Twisted ... error
    ERROR: Complete output from command /var/www/test2/bin/python3.4 -u -c 'import setuptools, tokenize;__file__='"'"'/tmp/pip-install-mocujs0_/Twisted/setup.py'"'"';f=getattr(tokenize, '"'"'open'"'"', open)(__file__);code=f.read().replace('"'"'\r\n'"'"', '"'"'\n'"'"');f.close();exec(compile(code, __file__, '"'"'exec'"'"'))' install --record /tmp/pip-record-bp9ymr86/install-record.txt --single-version-externally-managed --compile --install-headers /var/www/test2/include/site/python3.4/Twisted:
    ERROR: running install
py.user.next
У тебя в системе должно быть два питона одновременно. И второй питон должен правильно стоять, и третий питон должен правильно стоять. Второй питон используется самой системой (многие части написаны на нём). Когда они будут в начальном состоянии, тогда можно через yum поставить scrapy для второго питона и для третьего.

Можешь также поставить виртуальное окружение и использовать его pip3
python3 -m venv myenv
. myenv/bin/activate
pip3 install scrapy

Вот пример, как я установил scrapy в виртуальное окружение
[guest@localhost tmp]$ python3 -m venv myenv
[guest@localhost tmp]$ . myenv/bin/activate
(myenv) [guest@localhost tmp]$ pip3 install scrapy
Collecting scrapy
Downloading https://files.pythonhosted.org/packages/a3/b1/d1ab5b3f84640097cf5ff642e2e357546781746d4fec2ebb40432904c57d/Scrapy-1.7.2-py2.py3-none-any.whl (234kB)
100% |████████████████████████████████| 235kB 424kB/s
Collecting service-identity (from scrapy)
Downloading https://files.pythonhosted.org/packages/e9/7c/2195b890023e098f9618d43ebc337d83c8b38d414326685339eb024db2f6/service_identity-18.1.0-py2.py3-none-any.whl
Collecting cssselect>=0.9 (from scrapy)
Downloading https://files.pythonhosted.org/packages/7b/44/25b7283e50585f0b4156960691d951b05d061abf4a714078393e51929b30/cssselect-1.0.3-py2.py3-none-any.whl
Collecting lxml (from scrapy)
Downloading https://files.pythonhosted.org/packages/2d/53/34a9f0c79c548e430148837892b6ae91adee571a0e8b6c17bd7ff9c2d12e/lxml-4.3.4-cp36-cp36m-manylinux1_x86_64.whl (5.7MB)
100% |████████████████████████████████| 5.7MB 229kB/s
Collecting pyOpenSSL (from scrapy)
Downloading https://files.pythonhosted.org/packages/01/c8/ceb170d81bd3941cbeb9940fc6cc2ef2ca4288d0ca8929ea4db5905d904d/pyOpenSSL-19.0.0-py2.py3-none-any.whl (53kB)
100% |████████████████████████████████| 61kB 5.8MB/s
Collecting w3lib>=1.17.0 (from scrapy)
Downloading https://files.pythonhosted.org/packages/81/43/9dcf92a77f5f0afe4f4df2407d7289eea01368a08b64bda00dd318ca62a6/w3lib-1.20.0-py2.py3-none-any.whl
Collecting Twisted>=13.1.0; python_version != "3.4" (from scrapy)
Downloading https://files.pythonhosted.org/packages/79/59/035de19362320e632301ed7bbde23e4c8cd6fc5e2f1cf8d354cdba857854/Twisted-19.2.1.tar.bz2 (3.1MB)
100% |████████████████████████████████| 3.1MB 448kB/s
Collecting queuelib (from scrapy)
Downloading https://files.pythonhosted.org/packages/4c/85/ae64e9145f39dd6d14f8af3fa809a270ef3729f3b90b3c0cf5aa242ab0d4/queuelib-1.5.0-py2.py3-none-any.whl
Collecting parsel>=1.5 (from scrapy)
Downloading https://files.pythonhosted.org/packages/96/69/d1d5dba5e4fecd41ffd71345863ed36a45975812c06ba77798fc15db6a64/parsel-1.5.1-py2.py3-none-any.whl
Collecting PyDispatcher>=2.0.5 (from scrapy)
Downloading https://files.pythonhosted.org/packages/cd/37/39aca520918ce1935bea9c356bcbb7ed7e52ad4e31bff9b943dfc8e7115b/PyDispatcher-2.0.5.tar.gz
Collecting six>=1.5.2 (from scrapy)
Using cached https://files.pythonhosted.org/packages/73/fb/00a976f728d0d1fecfe898238ce23f502a721c0ac0ecfedb80e0d88c64e9/six-1.12.0-py2.py3-none-any.whl
Collecting attrs>=16.0.0 (from service-identity->scrapy)
Using cached https://files.pythonhosted.org/packages/23/96/d828354fa2dbdf216eaa7b7de0db692f12c234f7ef888cc14980ef40d1d2/attrs-19.1.0-py2.py3-none-any.whl
Collecting pyasn1 (from service-identity->scrapy)
Downloading https://files.pythonhosted.org/packages/7b/7c/c9386b82a25115cccf1903441bba3cbadcfae7b678a20167347fa8ded34c/pyasn1-0.4.5-py2.py3-none-any.whl (73kB)
100% |████████████████████████████████| 81kB 6.3MB/s
Collecting cryptography (from service-identity->scrapy)
Downloading https://files.pythonhosted.org/packages/97/18/c6557f63a6abde34707196fb2cad1c6dc0dbff25a200d5044922496668a4/cryptography-2.7-cp34-abi3-manylinux1_x86_64.whl (2.3MB)
100% |████████████████████████████████| 2.3MB 595kB/s
Collecting pyasn1-modules (from service-identity->scrapy)
Downloading https://files.pythonhosted.org/packages/91/f0/b03e00ce9fddf4827c42df1c3ce10c74eadebfb706231e8d6d1c356a4062/pyasn1_modules-0.2.5-py2.py3-none-any.whl (74kB)
100% |████████████████████████████████| 81kB 6.2MB/s
Collecting zope.interface>=4.4.2 (from Twisted>=13.1.0; python_version != "3.4"->scrapy)
Downloading https://files.pythonhosted.org/packages/19/17/1d198a6aaa9aa4590862fe3d3a2ed7dd808050cab4eebe8a2f2f813c1376/zope.interface-4.6.0-cp36-cp36m-manylinux1_x86_64.whl (167kB)
100% |████████████████████████████████| 174kB 5.2MB/s
Collecting constantly>=15.1 (from Twisted>=13.1.0; python_version != "3.4"->scrapy)
Downloading https://files.pythonhosted.org/packages/b9/65/48c1909d0c0aeae6c10213340ce682db01b48ea900a7d9fce7a7910ff318/constantly-15.1.0-py2.py3-none-any.whl
Collecting incremental>=16.10.1 (from Twisted>=13.1.0; python_version != "3.4"->scrapy)
Downloading https://files.pythonhosted.org/packages/f5/1d/c98a587dc06e107115cf4a58b49de20b19222c83d75335a192052af4c4b7/incremental-17.5.0-py2.py3-none-any.whl
Collecting Automat>=0.3.0 (from Twisted>=13.1.0; python_version != "3.4"->scrapy)
Downloading https://files.pythonhosted.org/packages/a3/86/14c16bb98a5a3542ed8fed5d74fb064a902de3bdd98d6584b34553353c45/Automat-0.7.0-py2.py3-none-any.whl
Collecting hyperlink>=17.1.1 (from Twisted>=13.1.0; python_version != "3.4"->scrapy)
Downloading https://files.pythonhosted.org/packages/7f/91/e916ca10a2de1cb7101a9b24da546fb90ee14629e23160086cf3361c4fb8/hyperlink-19.0.0-py2.py3-none-any.whl
Collecting PyHamcrest>=1.9.0 (from Twisted>=13.1.0; python_version != "3.4"->scrapy)
Downloading https://files.pythonhosted.org/packages/9a/d5/d37fd731b7d0e91afcc84577edeccf4638b4f9b82f5ffe2f8b62e2ddc609/PyHamcrest-1.9.0-py2.py3-none-any.whl (52kB)
100% |████████████████████████████████| 61kB 5.5MB/s
Collecting cffi!=1.11.3,>=1.8 (from cryptography->service-identity->scrapy)
Downloading https://files.pythonhosted.org/packages/5f/bf/6aa1925384c23ffeb579e97a5569eb9abce41b6310b329352b8252cee1c3/cffi-1.12.3-cp36-cp36m-manylinux1_x86_64.whl (430kB)
100% |████████████████████████████████| 440kB 2.5MB/s
Collecting asn1crypto>=0.21.0 (from cryptography->service-identity->scrapy)
Downloading https://files.pythonhosted.org/packages/ea/cd/35485615f45f30a510576f1a56d1e0a7ad7bd8ab5ed7cdc600ef7cd06222/asn1crypto-0.24.0-py2.py3-none-any.whl (101kB)
100% |████████████████████████████████| 102kB 6.8MB/s
Requirement already satisfied: setuptools in ./myenv/lib/python3.6/site-packages (from zope.interface>=4.4.2->Twisted>=13.1.0; python_version != "3.4"->scrapy)
Collecting idna>=2.5 (from hyperlink>=17.1.1->Twisted>=13.1.0; python_version != "3.4"->scrapy)
Using cached https://files.pythonhosted.org/packages/14/2c/cd551d81dbe15200be1cf41cd03869a46fe7226e7450af7a6545bfc474c9/idna-2.8-py2.py3-none-any.whl
Collecting pycparser (from cffi!=1.11.3,>=1.8->cryptography->service-identity->scrapy)
Downloading https://files.pythonhosted.org/packages/68/9e/49196946aee219aead1290e00d1e7fdeab8567783e83e1b9ab5585e6206a/pycparser-2.19.tar.gz (158kB)
100% |████████████████████████████████| 163kB 5.7MB/s
Installing collected packages: attrs, pyasn1, pycparser, cffi, six, asn1crypto, cryptography, pyasn1-modules, service-identity, cssselect, lxml, pyOpenSSL, w3lib, zope.interface, constantly, incremental, Automat, idna, hyperlink, PyHamcrest, Twisted, queuelib, parsel, PyDispatcher, scrapy
Running setup.py install for pycparser ... done
Running setup.py install for Twisted ... done
Running setup.py install for PyDispatcher ... done
Successfully installed Automat-0.7.0 PyDispatcher-2.0.5 PyHamcrest-1.9.0 Twisted-19.2.1 asn1crypto-0.24.0 attrs-19.1.0 cffi-1.12.3 constantly-15.1.0 cryptography-2.7 cssselect-1.0.3 hyperlink-19.0.0 idna-2.8 incremental-17.5.0 lxml-4.3.4 parsel-1.5.1 pyOpenSSL-19.0.0 pyasn1-0.4.5 pyasn1-modules-0.2.5 pycparser-2.19 queuelib-1.5.0 scrapy-1.7.2 service-identity-18.1.0 six-1.12.0 w3lib-1.20.0 zope.interface-4.6.0
You are using pip version 9.0.1, however version 19.2.1 is available.
You should consider upgrading via the 'pip install --upgrade pip' command.
(myenv) [guest@localhost tmp]$ ls myenv/lib/python3.6/site-packages/scrapy/
cmdline.py http mime.types signals.py
commands __init__.py _monkeypatches.py spiderloader.py
contracts interfaces.py pipelines spidermiddlewares
core item.py pqueues.py spiders
crawler.py linkextractors __pycache__ squeues.py
downloadermiddlewares link.py resolver.py statscollectors.py
dupefilters.py loader responsetypes.py templates
exceptions.py logformatter.py selector utils
exporters.py mail.py settings VERSION
extension.py __main__.py shell.py xlib
extensions middleware.py signalmanager.py
(myenv) [guest@localhost tmp]$ python3
Python 3.6.1 (default, Jun 27 2017, 14:35:15)
[GCC 7.1.1 20170622 (Red Hat 7.1.1-3)] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import scrapy
>>> help(scrapy)

Help on package scrapy:

NAME
scrapy - Scrapy - a web crawling and web scraping framework written for Python

PACKAGE CONTENTS
__main__
_monkeypatches
cmdline
commands (package)
contracts (package)
core (package)
crawler
downloadermiddlewares (package)
dupefilters
exceptions
exporters
extension
extensions (package)
http (package)
interfaces
item
link
linkextractors (package)
loader (package)
logformatter
mail
middleware
pipelines (package)
pqueues
resolver
responsetypes
selector (package)
settings (package)
shell
signalmanager
signals
spiderloader
spidermiddlewares (package)
spiders (package)
squeues
statscollectors
utils (package)
xlib (package)

CLASSES
builtins.dict(builtins.object)
scrapy.item.Field
parsel.selector.Selector(builtins.object)
scrapy.selector.unified.Selector(parsel.selector.Selector, scrapy.utils.trackref.object_ref)
scrapy.item.DictItem(collections.abc.MutableMapping, scrapy.item.BaseItem)
scrapy.item.Item
scrapy.utils.trackref.object_ref(builtins.object)
scrapy.http.request.Request
scrapy.http.request.form.FormRequest
scrapy.selector.unified.Selector(parsel.selector.Selector, scrapy.utils.trackref.object_ref)
scrapy.spiders.Spider

class Field(builtins.dict)
| Container of field metadata
...

>>>
(myenv) [guest@localhost tmp]$ deactivate
[guest@localhost tmp]$
laughingman
У меня все рушится как только начинает устанавливаться Twisted.
вот такая ошибка
 ERROR: Command "/var/www/test2/bin/python3.4 -u -c 'import setuptools, tokenize;__file__='"'"'/tmp/pip-install-unepb4ur/Twisted/setup.py'"'"';f=getattr(tokenize, '"'"'open'"'"', open)(__file__);code=f.read().replace('"'"'\r\n'"'"', '"'"'\n'"'"');f.close();exec(compile(code, __file__, '"'"'exec'"'"'))' install --record /tmp/pip-record-aj9ff3co/install-record.txt --single-version-externally-managed --compile --install-headers /var/www/test2/include/site/python3.4/Twisted" failed with error code 1 in /tmp/pip-install-unepb4ur/Twisted/

Пытаюсь просто Twisted установить pip install Twisted
получаю такое
 Requirement already satisfied: Twisted in /usr/lib64/python3.6/site-packages/Twisted-17.1.0-py3.6-linux-x86_64.egg (17.1.0)
Requirement already satisfied: zope.interface>=4.0.2 in /usr/lib64/python3.6/site-packages/zope.interface-4.6.0-py3.6-linux-x86_64.egg (from Twisted) (4.6.0)
Requirement already satisfied: constantly>=15.1 in /usr/lib64/python3.6/site-packages/constantly-15.1.0-py3.6.egg (from Twisted) (15.1.0)
Requirement already satisfied: incremental>=16.10.1 in /home/temp_souce/Twisted-17.1.0/.eggs/incremental-17.5.0-py3.6.egg (from Twisted) (17.5.0)
Requirement already satisfied: Automat>=0.3.0 in /usr/lib64/python3.6/site-packages/Automat-0.7.0-py3.6.egg (from Twisted) (0.7.0)
Requirement already satisfied: setuptools in /usr/lib/python3.6/site-packages (from zope.interface>=4.0.2->Twisted) (39.0.1)
Requirement already satisfied: attrs>=16.1.0 in /usr/lib64/python3.6/site-packages/attrs-19.1.0-py3.6.egg (from Automat>=0.3.0->Twisted) (19.1.0)
Requirement already satisfied: six in /usr/lib/python3.6/site-packages (from Automat>=0.3.0->Twisted) (1.12.0)
This is a "lo-fi" version of our main content. To view the full version with more information, formatting and images, please click here.
Powered by DjangoBB