Size: a a a

Сообщество Python Программистов

2020 August 09

ᅠSmoking? in Сообщество Python Программистов
тогда ексцепт с цикла выведет
источник

R3

Rud 356 in Сообщество Python Программистов
он пытается добиться поведения, при котором будет требовать валидный ввод, пока он не станет валидным
источник

E

Egor in Сообщество Python Программистов
хер поймешь концепт
источник

ᅠSmoking? in Сообщество Python Программистов
а если трай внутри то текущий будетпропущен так сказать
источник

ᅠSmoking? in Сообщество Python Программистов
он шо брутит свой код?
источник

R3

Rud 356 in Сообщество Python Программистов
нет, просто требует валидный ввод от юзера
источник

R3

Rud 356 in Сообщество Python Программистов
это норма
источник

ᅠSmoking? in Сообщество Python Программистов
а  понял
источник

E

Egor in Сообщество Python Программистов
погоди, у меня нормально работает, вроде
источник

E

Egor in Сообщество Python Программистов
ща попробую сделать то же, что и он сделал
источник

R3

Rud 356 in Сообщество Python Программистов
Egor
погоди, у меня нормально работает, вроде
нет
источник

R3

Rud 356 in Сообщество Python Программистов
он хотел чтоб числа переводились и были только те, что больше нуля
источник

R3

Rud 356 in Сообщество Python Программистов
только он наебатся еще может в одном месте, а именно с тем, что сплит он делает многократно, а переменных в которую распакуется всего две
источник

R

RooDZDreeM in Сообщество Python Программистов
Всем привет, я пришел сюда в поисках помощи, учился парсить сайты, вроде все получалось, пока не зашёл на озон, ща скину код, объясните пожалуйста, почему не работает. Программа должна была спарсить название очков и в будущем записать все в цсв файл.
источник

R

RooDZDreeM in Сообщество Python Программистов
import requests
from bs4 import BeautifulSoup as sp
import csv

URL='https://www.ozon.ru/category/ochki-dlya-chteniya-6304/?utm_campaign=category_6000_mspt_catc_all_6303_medicine_48413441&utm_content=k50id%7C0100000019265825853_%7Ccid%7C48413441%7Cgid%7C4058643804%7Caid%7C8421691487%7Cadp%7Cno%7Ckw%7C%D0%B8%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1%82+%D0%BC%D0%B0%D0%B3%D0%B0%D0%B7%D0%B8%D0%BD+%D0%BE%D1%87%D0%BA%D0%B8%7Cpos%7Cpremium2%7Cmain&utm_medium=cpc&utm_source=yandex_direct&utm_term=%D0%B8%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1%82+%D0%BC%D0%B0%D0%B3%D0%B0%D0%B7%D0%B8%D0%BD+%D0%BE%D1%87%D0%BA%D0%B8_cbrx_2128121&yclid=4571811711030953318'
HEADERS = {
'accept' : 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'user-agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
}
def get_html(url,params=''):
r= requests.get(url, headers=HEADERS, params = params)
return r

def get_content(html):
soup=sp(html, 'html.parser')
items = soup.find('div',class_="ao3")
gog= items.find_all('a',class_="a2c2")
print(gog)
glasses=[]
#print(items)
'''for item in items:

glasses.append(
{
'description' : item.find('a',class_="a2c2").get_text(strip=True)

}
)
'''
#print(glasses)

html=get_html(URL)
get_content(html.text)
источник

E

Egor in Сообщество Python Программистов
try:
   while True:
       a, b = map(int, input().split())
except:
   print("u r retarded")

>>>1 2
>>>2 1
>>>1 2
>>>3 4
>>>3.12 2
>>>u r retarded
источник

R3

Rud 356 in Сообщество Python Программистов
RooDZDreeM
import requests
from bs4 import BeautifulSoup as sp
import csv

URL='https://www.ozon.ru/category/ochki-dlya-chteniya-6304/?utm_campaign=category_6000_mspt_catc_all_6303_medicine_48413441&utm_content=k50id%7C0100000019265825853_%7Ccid%7C48413441%7Cgid%7C4058643804%7Caid%7C8421691487%7Cadp%7Cno%7Ckw%7C%D0%B8%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1%82+%D0%BC%D0%B0%D0%B3%D0%B0%D0%B7%D0%B8%D0%BD+%D0%BE%D1%87%D0%BA%D0%B8%7Cpos%7Cpremium2%7Cmain&utm_medium=cpc&utm_source=yandex_direct&utm_term=%D0%B8%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1%82+%D0%BC%D0%B0%D0%B3%D0%B0%D0%B7%D0%B8%D0%BD+%D0%BE%D1%87%D0%BA%D0%B8_cbrx_2128121&yclid=4571811711030953318'
HEADERS = {
'accept' : 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'user-agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
}
def get_html(url,params=''):
r= requests.get(url, headers=HEADERS, params = params)
return r

def get_content(html):
soup=sp(html, 'html.parser')
items = soup.find('div',class_="ao3")
gog= items.find_all('a',class_="a2c2")
print(gog)
glasses=[]
#print(items)
'''for item in items:

glasses.append(
{
'description' : item.find('a',class_="a2c2").get_text(strip=True)

}
)
'''
#print(glasses)

html=get_html(URL)
get_content(html.text)
а теперь простыню выливай на pastebin.com
источник

R3

Rud 356 in Сообщество Python Программистов
это было номер раз, а два то, что там контент страницы рендерится динамически и одним bs ты тут не отделаешься так просто + еще напорешься наверняка на защиту от парсинга
источник

E

Egor in Сообщество Python Программистов
Rud 356
только он наебатся еще может в одном месте, а именно с тем, что сплит он делает многократно, а переменных в которую распакуется всего две
это да, я заметил, но я просто говорил о том, чтобы вынести try, except вне цикла пока что
источник

E

Egor in Сообщество Python Программистов
конечно, там дохера чего нужно исправить, но я пока об этом
источник