Название |
Описание |
Ссылка |
Обработка изображений |
Основы работы с изображениями в python, чтение, обработка, популярные фреймворки, как делать нормализацию изображений, как применять аугментации перед подачей в модель |
|
Hugging Face |
Обзор платформы Hugging Face - где можно найти модели для итогового/пет проекта (которые можно использовать сразу или дообучить под свою задачу), как ими пользоваться на примере нескольких моделей для обработки и генерации текста, генерации изображений, работы с аудио. Пример написания простого Telegram бота и бота для генерации изображений и текста, которые могут стать частью итогового/пет проекта |
|
Pytorch |
Операции с тензорами в Pytorch, работа с GPU, создание самописных датасетов, даталоадеры, пример обучения линейной модели на датасете изображений |
|
Линейные модели, функции активации |
Устройство линейного слоя в библиотеке Pytorch, частоиспользуемые функции активации нейронных сетей, как писать свои слои, нейронные сети и объекты Pytorch, пример обучения нейронной сети на датасете |
|
Сверточные сети |
Сверточные сети, их параметры, пример обучения и инференса сверточной сети на датасете изображений |
|
Батч нормализация, дропаут |
Методы увеличения размерности тензоров, слои нормализации тензоров (BatchNorm, LayerNorm, InstanceNorm, GroupNorm, RMSNorm), слои Dropout, пример обучения моделей и сравнения графиков обучения |
|
Transfer Learning, Fine-Tuning |
Как использовать предобученные модели из модуля torchvision и их дообучение с помощью механизмов Transfer learning, Fine-Tuning, а так же краткий обзор и демонcтрация планировщиков скорости обучения (shedulers) |
|
Дистилляция, прунинг |
Обзор методов оптимизации (компрессии) нейронных сетей - дистилляция и прунинг |
|
Квантизация |
Примеры использования различных фреймворков для квантизации моделей и ускорения инференса, преобразование моделей в форматы для инференса - ONNX, OpenVINO, квантизация моделей в формат GGUF через llama.cpp и их инференс через llama.cpp и llama-cpp-python |
|
Автокодировщики |
Устройство и обучение автокодировщиков (автоэнкодеров) с архитектурами AE, VAE, CVAE для удаления шума с изображений, а так же визуализация скрытого пространства |
|
Генеративно - Состязательные сети (GAN) |
Основные типы даннных и конструкции языка Python |
|
Stable Diffusion |
Примеры инференса модели Stable Diffusion, краткий обзор основных компонент Stable Diffusion и пошаговый пример генерации изображения с их использованием |
|
Рекуррентные сети |
Устройство рекуррентных слоев RNN и LSTM в Pytorch, пример обучения рекуррентной нейронной сети на задачу генерации текста и пример обучения рекуррентной нейронной сети на задачу предсказания значений временного ряда |
|
Архитектура Энкодер-Декодер, механизм внимания |
Пример реализации архитектур Seq2Seq Encoder-Decoder и Encoder-Decoder с механизмом внимания, а так же их обучение на задаче машинного перевода |
|
Архитектура Трансформер |
Разбор и реализация архитектуры трансформера и его обучение на задачах машинного перевода и генерации текста |
|
Bert |
Примеры использования моделей семейства Bert на различных задачах и пример дообучения модели Bert для классификации текстов |
|
Классификация текстов |
Пример препроцессинга и классификации текстов спортивных новостей на 4 класса при помощи моделей и методов: TF-IDF + LogisticRegression и CatBoost Pretrained Embeddings + LogisticRegression и CatBoost Embeddings + Полносвязная сеть (FCN) Embeddings + Рекуррентная сеть (RNN) Embeddings + Рекуррентная сеть c механизмом внимания (RNN With Attention) Embeddings + Сверточная сеть (CNN) Word2Vec + Рекуррентная сеть (RNN) |
|
LLM Fine Tuning, LoRA, Datasets |
Демонстрация дообучения LLM на примере маленькой модели с платформы Hugging Face, примеры создания и обратботки датасетов для обучения через библиотеку transformers |
|
LLM Fine-Tuning, LoRA |
Пример дообучения языковой модели с платформы Hugging Face на датасете вопросов и ответов с медицинских форумов с применением квантования из библиотеки bitsandbytes и метода LoRA (QLoRA) |
|
LLM Fine-Tuning Qwen2.5, LoRA |
Пример дообучения языковой модели Qwen2.5 на датасете новостей с помощью библиотеки transformers и с применением метода LoRA, логгирование процесса обучения через wandb, сохранение/объединение модели, конвертация в формат GGUF, отправка всех вариантов моделей на Hugging Face |
|
LLM Gradio Chatbot, Telegram Bot |
Написания чат-ботов на основе llama-cpp-python и transformers с web-интерфейсом на Gradio, создание докер контейнера для чат-бота, а так же написание Телеграм бота, который преобразет речь в текст (Speech-to-Text), генерирует ответ, и преобразует его обратно в речь(Text-to-Speech) |
|
LLM Gradio Chatbot |
Чат-бот на основе библиотеки llama-cpp-python и с веб-интерфейсом на фреймворке Gradio, деплой бота на облачный сервер, подключение к нему сервера NGINX, аренда своего домена (сайта) и получение SSL сертификата для работы сайта по протоколу HTTPS |
|
Semantic Text Vector Search |
Векторизация и поиск похожих текстов через TF-IDF, BM25, Word2Vec, Doc2Vec, FastText, эмбединги (Bi-Encoder) на примере датасета описаний товаров с маркетплейса Поиск похожих текстов через алгоритм ANN с векторизацией через эмбединги, TF-IDF, BM25, Word2Vec, Doc2Vec, FastText Кластеризация эмбедингов текстов и поиск похожих текстов с учетом предсказанного кластера Ранжирование текстов через модели Cross-Encoder Создание векторной БД через библиотеку Milvus, поиск похожих текстов через эмбединги и через гибридный поиск (TF-IDF / эмбединги) Вычисление похожести между текстами, между картинками и текстами и между картинками через мультимодальные энкодеры |
|
RAG Gradio Chatbot |
Как работает механизм RAG, его реализации вручную и с ипользованием библиотеки Langchain, обзор библиотеки Langchain. Написание web-приложения чат-бота с механизмом RAG на фреймворке Gradio + Docker |
|
Метрики задачи детекции объектов |
Основные метрики для задачи детекции объектов и пример дообучения модели Faster-R-CNN |
|
Обзор моделей YOLO |
Примеры детекции объектов, детекции ключевых точек, сегментации на изображениях и видео с помощью моделей Detectron 2, R-CNN и YOLO (v5, v7, v11) |
|
Дообучение модели YOLO |
Дообучение модели YOLOv8 на датасете животных |
|
YOLOv8 Detector App part 1 |
Написание веб-приложения на фреймворке Gradio для детекции фото и видео с использованием моделей YOLO из библиотеки Ultralytics |
|
YOLOv8 Detector App part 2 |
Деплой приложения на арендованный сервер. Настройка сервера NGINX для эффективной работы приложения. Аренда домена для сайта и его подключение к серверу с приложением. Установка SSL сертификата для работы приложения по протоколу HTTPS. Настройка сертификатов чтобы свой сайт работал на удаленном сервере по протоколу HTTPS с использованием Docker Compose, экспорт и инференс модели на основе YOLOv8 в формат ONNX |
|
YOLO NAS SAHI |
Разбор ноутбука со следующими темами: YOLO NAS Super Gradients - библиотека для обнаружения объектов с SOTA моделями. Deep Sort - Отслеживание одинаковых объектов на видео (трекинг). YOLO SAHI - Обнаружение мелких объектов.
|
|
Metric Learning, Siamese networks, Face Recognition |
Реализация сиамской сети на PyTorch для определения сходства между изображениями в двух вариантах - с применением функций потерь Contrastive Loss и Triplet Loss, а так же примеры распознавания лиц с помощью сторонних библиотек. Обзор библиотеки DeepFace |
|
Streamlit Face Recognition App |
Примеры использования моделей для распознавания лиц, эмоций, пола и возраста в формате ONNX, написание на их основе веб-приложения с веб-интерфейсом на Streamlit для детекции фото и видео |
|
Сегментация изображений |
Обзор метрик для задачи сегментации (IOU, DICE), обучение модели Unet на задачу сегментации на датасете домашних животных, примеры применения готовых моделей для сегментации изображений |
|
VIT |
Разбор архитектуры VIT (Visual Transformer) |
|
VLM, OCR |
Применение VLM (Vision Language Models) моделей на задаче генерации описания к изображению, применение OCR (Optical Character Recognition) библиотек на задаче распознавания текста на изображении |
|
Adversarial attacks |
Как произвести атаку на нейронную сеть на примере механизма Fast Gradient Sign Attack (FGSM) |
|
Обработка аудио |
Представление звука в компьютере, основные виды параметризации аудио перед подачей в модель, примеры работы со звуковыми файлами через популярные библиотеки, примеры преобразования текста в речь (TTS) и синтеза речи из текста (STT) |
|
Классификация аудио |
Пример обучения сверточной нейронной сети задаче классификации аудио на 10 классов, логирование процесса обучения через Wandb |
|
Обучение с подкреплением |
Примеры обучения моделей играть в игры из игровых сред библиотеки Gymnasium с помощью алгоритмов Q-learning, PPO |
|