LINUX.ORG.RU

История изменений

Исправление AKonia, (текущая версия) :

Простой способ: делаешь запрос на получение страницы

import requests
rb = requests.get("https://yandex.ru/news/region/<имя региона>") 
# например moscow

а дальше можно мусор почистить и вычленить готовые новости

import re
re.findall("\"title\":[^,]*", rb.text)

Способ костыльноват и его стоит допилить убрать лишнее, вернуть к жизни внутренние запятые, но в целом идею думаю передал:)

Исправление AKonia, :

Простой способ: делаешь запрос на получение страницы

import requests
rb = requests.get("https://yandex.ru/news/region/<имя региона>") # например moscow

а дальше можно мусор почистить и вычленить готовые новости

import re
re.findall("\"title\":[^,]*", rb.text)

Способ костыльноват и его стоит допилить убрать лишнее, вернуть к жизни внутренние запятые, но в целом идею думаю передал:)

Исправление AKonia, :

Простой способ: делаешь запрос на получение страницы

import requests
rb = requests.get("https://yandex.ru/news/region/<имя региона>")

а дальше можно мусор почистить и вычленить готовые новости

import re
re.findall("\"title\":[^,]*", rb.text)

Способ костыльноват и его стоит допилить убрать лишнее, вернуть к жизни внутренние запятые, но в целом идею думаю передал:)

Исправление AKonia, :

Простой способ: делаешь запрос на получение страницы

import requests
rb = requests.get("https://yandex.ru/news/region/<имя региона>")

а дальше можно мусор почистить и вычленить готовые новости

import re
re.findall("\"title\":[^,]*", rb.text)

Способ костыльноват и его стоит допилить, но в целом работает:)

Исходная версия AKonia, :

Простой способ: делаешь запрос на получение страницы

import requests
rb = requests.get("https://yandex.ru/news/region/<имя региона>")

а дальше можно мусор почистить и вычленить готовые новости

import re
re.findall("\"title\":[^,]*", rb.text)

Способ костыльноват, но работает:)