text
stringlengths
0
128
import re
import nltk
from nltk.stem.snowball import SnowballStemmer
from nltk.tokenize import word_tokenize
from nltk.corpus import stopwords
nltk.download('stopwords')
nltk.download('punkt')
stemmer = SnowballStemmer("russian")
stopwords_ru = stopwords.words("russian")
def to_lowercase(data):
data = data.lower()
return data
def noise_remove(data, remove_numbers=True):
data = re.sub(r"(\w+:\/\/\S+)", " ", data)
data = re.sub(r"([^0-9А-Яа-я])", " ", data)
if remove_numbers:
data = re.sub(r"\d+", " ", data)
return data
def stemming(words):
return [stemmer.stem(word) for word in words]
def tokenize(text):
words = text.split()
for elem in words:
if len(elem) < 3:
words.remove(elem)
stemmed_words = stemming(words)
return ' '.join(stemmed_words)
import requests
from bs4 import BeautifulSoup
from concurrent.futures import ThreadPoolExecutor
themes = ['Одежда', 'Животные', 'Политика', 'IT', 'Новости']
def get_links(theme): #Сбор ссылок по каждой из тем начиная с главной страницы
page = requests.get(f'https://habr.com/ru/search/page1/?q={theme}&target_type=posts&order=relevance').text
page_soup = BeautifulSoup(page, 'html.parser')
count_pages = int(page_soup.find_all('div', 'tm-pagination__page-group')[-1].text.split()[0])
hrefs = []
for i in range(1, count_pages + 1): #Перебор страниц со списком статей с 1 по последнюю
print(i)
page = requests.get(f'https://habr.com/ru/search/page{i}/?q={theme}&target_type=posts&order=relevance').text
page_s = BeautifulSoup(page, 'html.parser')
links = page_s.find_all('article', 'tm-articles-list__item')
hrefs.extend([f'https://habr.com/ru/news/{link["id"]}/' for link in links])
return hrefs #Возвращаем ссылки статей по данной теме
def get_text(href): #Парсинг текста статьи по кадой ранее собранной ссылке
print(href)
try:
pagex = requests.get(href).text
page_su = BeautifulSoup(pagex, 'html.parser')
text = page_su.find_all("div", "article-formatted-body article-formatted-body article-formatted-body_version-1")[0].text
return text
except:
return ''
all_texts = []
for theme in themes:
print(f'Сбор ссылок по теме {theme} начат')
hrefs = get_links(theme)
print(f'Сбор ссылок по теме {theme} закончен')
with ThreadPoolExecutor() as executor: #Использую распараллеливание для быстрого сбора
results = list(executor.map(get_text, hrefs)) #Добавляем текст по текущей теме к списку
all_texts += results #Добавляем тексты по текущей теме к общему списку текстов
print('Сбор текстов по ссылкам окончен')
from textblob import TextBlob
def ngram(data, from_column, to_column, t):
new_columns = [[], [], []]
if t == 1:
for index, row in data.iterrows():
ngram_object = TextBlob(row[from_column])
unigrams = ngram_object.ngrams(n=1)
new_columns[0].append(unigrams)
bigrams = ngram_object.ngrams(n=2)
new_columns[1].append(bigrams)
trigrams = ngram_object.ngrams(n=3)