import pandas as pd import streamlit as st file_path = 'table_itog.csv' df = pd.read_csv(file_path) df.set_index('Модель', inplace=True) df.rename(columns={ 'Unnamed: 2': 'Выбор ответа (мультивыбор)', 'Unnamed: 3': 'Выбор ответа (мультивыбор)', 'Unnamed: 6': 'Указание последовательности', 'Unnamed: 7': 'Указание последовательности', 'Unnamed: 9': 'Установление соответствия', 'Unnamed: 10': 'Установление соответствия', 'Unnamed: 12': 'Открытый ответ', 'Unnamed: 13': 'Открытый ответ' }, inplace=True) df.drop(columns=['Unnamed: 15', 'EM'], inplace=True) new_columns_reversed = df.columns + ' ' + df.iloc[0] df.columns = new_columns_reversed df = df.drop(df.index[0]) df.rename(columns={df.columns[-1]: 'ИТОГОВЫЙ рейтинг'}, inplace=True) # st.title("Основные метрики") html_code = '''
Foo
''' st.markdown(html_code, unsafe_allow_html=True) st.title("**`Ссылки/контакты`**") st.write("[GitHub](https://github.com/ikanam-ai/slava)") st.write("[Dataset](https://huggingface.co/datasets/RANEPA-ai/SLAVA-OpenData-2800-v1)") st.title("SLAVA: Этический Бенчмарк для Проверки LLM") st.header("Описание") st.write(""" SLAVA — это набор инструментов для оценки этических аспектов работы языковых моделей (LLM). Мы стремимся обеспечить разработчиков и исследователей эффективными методами для проверки и улучшения этических стандартов в их моделях. """) st.header("Цели") st.write(""" - Оценка языковых моделей на предмет предвзятости и неприемлемого контента. - Предоставление метрик для оценки этичности генерации текста. - Создание базы данных для анализа и улучшения моделей. """) columns = df.columns.tolist() default_column = ['ИТОГОВЫЙ рейтинг'] selected_columns = st.multiselect("Выберите колонки для отображения", columns, default=default_column) st.write( """ """, unsafe_allow_html=True ) st.dataframe(df[selected_columns], height=800)