--- tags: - autoencoder - fashion-mnist - pytorch - huggingface --- # Энкодер на датасете fashion_mnist ## Задача Построить автоэнкодер для датасета Fashion MNIST, который будет принимать на вход изображение и создавать его же изображение на выходе. ## Архитектура Нейросеть состоит из следующих слоев: 1.Входной слой, принимающий изображение 2.Полносвязный слой с 256 нейронами и функцией активации ReLU 3.Полносвязный слой с 128 нейронами и функцией активации ReLU 4.Скрытый слой, имеющий 50 нейронов и функцию активации ReLU 5.Полносвязный слой с 128 нейронами и функцией активации ReLU 6.Полносвязный слой с 256 нейронами и функцией активации ReLU 7.Выходной слой с функцией активации сигмоид, который производит декодирование изображения 8.Выходной слой, преобразующий выходную карту признаков в изображение ![Архитектура.png](https://s3.amazonaws.com/moonup/production/uploads/647f7020e9c81260ff881661/4IfjN_BKYtmfQoum6fj_Z.png) ## Общее количество обучаемых параметров Автоэнкодер содержит 235,978 обучаемых параметров ## Функция оптимизации и функция ошибок Алгоритм оптимизации - Adam, функция ошибок - бинарная кросс-энтропия. ## Размеры датасета - Тренировочный датасет: 48,000 изображений - Валидационный датасет: 16,000 изображений - Тестовый датасет: 16,000 изображений ## Результаты обучения модели на всех трех датасетах После 50 эпох обучения модели на тренировочном датасете, результаты на трех датасетах такие: - Train Loss: 0.26351 - Train Accuracy: 0.27152 - Val Loss: 0.26502 - Val Accuracy: 0.26352 - Test Loss: 0.26442 - Test Accuracy:0.26600