import streamlit as st import requests import streamlit as st import requests from transformers import pipeline pipe = pipeline("text-classification", model="cointegrated/rubert-tiny-toxicity") text = st.text_input("Введите комментарий") if text: output = pipe(text)[0].get('label') if output == 'dangerous': st.markdown('

ОПАСНЫЙ КОММЕНТАРИЙ

', unsafe_allow_html=True) elif output == 'non-toxic': st.markdown('

Нормальный комментарий

', unsafe_allow_html=True) elif output == 'insult': st.markdown('

Оскорбительный комментарий

', unsafe_allow_html=True) elif output == 'threat': st.markdown('

Угрожающий комментарий

', unsafe_allow_html=True) elif output == 'obscenity': st.markdown('

ууу, непристойности

', unsafe_allow_html=True)