text
stringlengths 0
128
|
|---|
import re
|
import nltk
|
from nltk.stem.snowball import SnowballStemmer
|
from nltk.tokenize import word_tokenize
|
from nltk.corpus import stopwords
|
nltk.download('stopwords')
|
nltk.download('punkt')
|
stemmer = SnowballStemmer("russian")
|
stopwords_ru = stopwords.words("russian")
|
def to_lowercase(data):
|
data = data.lower()
|
return data
|
def noise_remove(data, remove_numbers=True):
|
data = re.sub(r"(\w+:\/\/\S+)", " ", data)
|
data = re.sub(r"([^0-9А-Яа-я])", " ", data)
|
if remove_numbers:
|
data = re.sub(r"\d+", " ", data)
|
return data
|
def stemming(words):
|
return [stemmer.stem(word) for word in words]
|
def tokenize(text):
|
words = text.split()
|
for elem in words:
|
if len(elem) < 3:
|
words.remove(elem)
|
stemmed_words = stemming(words)
|
return ' '.join(stemmed_words)
|
import requests
|
from bs4 import BeautifulSoup
|
from concurrent.futures import ThreadPoolExecutor
|
themes = ['Одежда', 'Животные', 'Политика', 'IT', 'Новости']
|
def get_links(theme): #Сбор ссылок по каждой из тем начиная с главной страницы
|
page = requests.get(f'https://habr.com/ru/search/page1/?q={theme}&target_type=posts&order=relevance').text
|
page_soup = BeautifulSoup(page, 'html.parser')
|
count_pages = int(page_soup.find_all('div', 'tm-pagination__page-group')[-1].text.split()[0])
|
hrefs = []
|
for i in range(1, count_pages + 1): #Перебор страниц со списком статей с 1 по последнюю
|
print(i)
|
page = requests.get(f'https://habr.com/ru/search/page{i}/?q={theme}&target_type=posts&order=relevance').text
|
page_s = BeautifulSoup(page, 'html.parser')
|
links = page_s.find_all('article', 'tm-articles-list__item')
|
hrefs.extend([f'https://habr.com/ru/news/{link["id"]}/' for link in links])
|
return hrefs #Возвращаем ссылки статей по данной теме
|
def get_text(href): #Парсинг текста статьи по кадой ранее собранной ссылке
|
print(href)
|
try:
|
pagex = requests.get(href).text
|
page_su = BeautifulSoup(pagex, 'html.parser')
|
text = page_su.find_all("div", "article-formatted-body article-formatted-body article-formatted-body_version-1")[0].text
|
return text
|
except:
|
return ''
|
all_texts = []
|
for theme in themes:
|
print(f'Сбор ссылок по теме {theme} начат')
|
hrefs = get_links(theme)
|
print(f'Сбор ссылок по теме {theme} закончен')
|
with ThreadPoolExecutor() as executor: #Использую распараллеливание для быстрого сбора
|
results = list(executor.map(get_text, hrefs)) #Добавляем текст по текущей теме к списку
|
all_texts += results #Добавляем тексты по текущей теме к общему списку текстов
|
print('Сбор текстов по ссылкам окончен')
|
from textblob import TextBlob
|
def ngram(data, from_column, to_column, t):
|
new_columns = [[], [], []]
|
if t == 1:
|
for index, row in data.iterrows():
|
ngram_object = TextBlob(row[from_column])
|
unigrams = ngram_object.ngrams(n=1)
|
new_columns[0].append(unigrams)
|
bigrams = ngram_object.ngrams(n=2)
|
new_columns[1].append(bigrams)
|
trigrams = ngram_object.ngrams(n=3)
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.