Форум сайта python.su
В нете нашел вот такой пример парсинга страниц:
import json from urllib.parse import urljoin import requests from parsel import Selector index = requests.get('http://books.toscrape.com/') books = [] for href in Selector(index.text).css('.product_pod a::attr(href)').extract(): url = urljoin(index.url, href) book_page = requests.get(url) sel = Selector(book_page.text) books.append({ 'title': sel.css('h1::text').extract_first(), 'price': sel.css('.product_main .price_color::text')extract_first(), 'image': sel.css('#product_gallery img::attr(src)').extract_first() }) with open('books.json', 'w') as fp: json.dump(books, fp)
Офлайн
Надо больше информации. Какой сайт, какие там теги используют под книги, <pre> не <pre>. И для этой задачи лучше используй bs4 с lxml/html.parser, это будет быстрее, удобнее. А так ничем помочь не могу пока все не выложишь
# Life loop while alive: if (fun > boredom) and money: pass_day(fun, boredom, money) continue else: break
Офлайн
Если нужна будет помощь, пишите на почту)
Офлайн
sosok43kЛол, это тебе помощь нужна, с фига ли я буду париться и писать тебе на почту чтобы ТЕБЕ помочь? Просто выложи весь или большую часть кода сюда и разберемся
Если нужна будет помощь, пишите на почту)
# Life loop while alive: if (fun > boredom) and money: pass_day(fun, boredom, money) continue else: break
Отредактировано DamMercul (Авг. 14, 2018 17:46:16)
Офлайн
DamMerculНичего страшного)
УУПС, извини, я думал это автор топика написал)
Офлайн