import streamlit as st import requests import streamlit as st import requests from transformers import pipeline pipe = pipeline("text-classification", model="cointegrated/rubert-tiny-toxicity") text = st.text_input("Введите комментарий") if text: output = pipe(text)[0].get('label') if output == 'dangerous': st.markdown('
ОПАСНЫЙ КОММЕНТАРИЙ
', unsafe_allow_html=True) elif output == 'non-toxic': st.markdown('Нормальный комментарий
', unsafe_allow_html=True) elif output == 'insult': st.markdown('Оскорбительный комментарий
', unsafe_allow_html=True) elif output == 'threat': st.markdown('Угрожающий комментарий
', unsafe_allow_html=True) elif output == 'obscenity': st.markdown('ууу, непристойности
', unsafe_allow_html=True)