онлайн-курс
25 студентов
3 месяца
старт 29 октября
О курсе
Целью курса является обучение и подготовка конкурентоспособных специалистов в области машинного обучения. Будет покрыт технологический стек следующих профессий: Data Scientist и Machine Learning Engineer. Основной уклон сделан на глубоком изучении нейронных сетей и фреймворков машинного обучения.

Вы познакомитесь с основными подходами в машинном обучении. Научитесь решать задачи регрессии, классификации. Вы будете предсказывать цены реальной недвижимости, классифицировать и кластеризовать изображения. Познакомитесь с необходимыми разделами математики. Затем глубоко погрузитесь в мир искусственных нейронных сетей. В подробностях рассмотрите принципы их работы и их структуру. По прохождении этого курса вы будете глубоко разбираться в том, какие типы нейронных сетей подходят для решения конкретных задач. Научитесь их создавать, тренировать, валидировать и контролировать обучение.

11500 грн/месяц
курс можно оплачивать помесячно или целиком 32 775 грн (со скидкой 5%)
25 занятий
3 месяца 2 раза в неделю по вторникам и четвергам
29 октября
принимаем заявки до 23 октября
25 студентов
мы уделяем внимание каждому студенту, потому количество мест в группе ограничено
Кому будет полезно
— Будущим, а также практикующим Data Scientist-ам, желающим освоить Deep Learning и систематизировать свои знания, чтобы двигаться дальше в изучении прогрессивных разделов компьютерного зрения и обработки естественного языка;

— Middle и Senior разработчикам, которые хотят выучить deep learning, чтобы внедрять методы машинного обучения;

— Студентам энтузиастам технических специальностей, желающим овладеть крутой профессией;

— Выпускникам курсов «Data Science. Математические основы», «Алгоритмика. Pro», «Алгоритмика. Основы»;

— Всем, кому нужна база для дальнейшего изучения Deep Learning и Computer Vision.

Студент курса должен владеть языком Python на базовом уровне, помнить основы математического анализа и теории вероятностей.

Куратор
Михаил Константинов — Deep Learning Research Engineer в Ring Ukraine.

Специалист по глубокому обучению в области компьютерного зрения и обработки естественного языка. Имеет большой опыт работы с моделями машинного обучения различных типов. Разрабатывал решения на стыке cv и nlp, а также в области генерации изображений. Занимался автоматическим прохождением капчи с использованием современных deep learning подходов, а также adversarial защитой капчи от нейронных сетей.
Программа курса
Introduction to Deep Learning
— Course Review
— What is Machine Learning
— Supervised and Unsupervised Learning
— Machine Learning vs Deep Learning
— CV - Computer Vision
— NLP - Natural Language Processing
— Data Science and Machine Learning
— Breath history of AI
— AI, Turing Test, Philosophy of Science
Python for Deep Learning and Research
— Basic algorithms and common tasks
— Classical algorithms
— Computational complexity
— Useful Libraries and Frameworks
— CPU vs GPU parallelization
— Cloud and GPU Integration
— Data Visualization
— Vectors and Vectorization
— Image Processing
— Language Processing
Mathematics for Deep Learning
— Common Notation and Core Ideas
— Linear Algebra
— N-dim Spaces
— Vectors, Matrices and Operators
— Mathematical and Function Analysis calculus
— Derivative and Partial derivative
— Chain Rule
— Probability theory
— Introduction to Statistics
Linear, Polynomial and Multivariate Regression
— Price prediction Task
— Linear Regression
— Least square method
— Loss Function
— Optimization Task
— Gradient Descent
— MLE - Maximum Likelihood Estimation
— Data Preprocessing
— Model Visualization
— Data Normalization
— Polynomial Regression
— Multivariate Regression
Introduction Computer Vision
— Basic idea of Computer Vision
— Classical Computer Vision
— Deep Learning and CV
— Core Idea of Semantic Gap
— Classification Task
— N-dim Spaces and Metrics
— Common datasets
— Mnist and Fashion-Mnist
— Cifar10 and Cifar100
— Cats vs Dogs
— ImageNet and MS COCO
— Euclidean Distance
— Nearest Neighbour
Classification and Computer Vision
— Image Classification
— Cosine Similarity
— Manhattan distance
— KNN
— Train / Val / Test data split
— Logistic Regression
— Logistic Regression and Maximum Likelihood Estimation
— Loss function and Cross Entropy
— Accuracy and Metrics
— Precision, Recall and F1
Neural Networks
— Rosenblatt's Perceptron
— Artificial Neuron
— Warren McCulloch and Walter Pitts Neuron
— Fully Connected (Linear, Dense, Affine) Layer
— Activation Layers
— BackPropagation Algorithm
— Stochastic Gradient Descent
— Biological Neuron and Analogy
Computation graphs and Deep Learning Frameworks
— Computational graphs
— Differentiable graphs
— Deep Learning Frameworks
— Custom Framework Realization
— Linear operations and Activation Realizations
— Main Blocks Of Deep Learning FrameWorks
— Custom Model and Train
— Optimizator realization
— TensorFlow
— Keras
— PyTorch
Deep Learning
— Neural Networks Problems
— Activation Functions
— Weights Initialization
— Initialization Techniks
— Overfitting and Underfitting
— Regularization Methods
— L1 and L2 Regularization
— Ensemble of Models
— Dropout
— Hyper Parameters Search
— Optimizations behind SGD
— Momentum and Nesterov Momentum
— Adagrad, RMSprop
— Adam, Nadam
— Batch-Normalization
Unsupervised Learning
— Dimensionality reduction
— Feature Learning
— Vector Representation
— Embeddings
— Kernel Method
— Clusterization
— k-means Clusterization
— Hierarchical Clusterization
— Neural Networks and Unsupervised Learning
— Autoencoders
— Autoencoders architectures
— Tasks for Autoencoders
— Problem of Image Generation
— Image Denoising Task
Introduction to Deep Learning in Computer Vision
— Problems of Fully Connected Neural Networks
— Towards Convolution Neural Network
— CNN as feature extractor
— Computer Vision tasks
— Transfer Learning
— Transfer Learning in Practice
— What Next (breath: CNN Architectures, Image Detection, Segmentation, GANs)
Introduction to Natural Language Processing
— Introduction to Natural Language Processing
— Text classification
— Words Preprocessing and Representation
— Part-of-Speech tagging (PoS tagging)
— Tokenization, Lemmatization and Stemming
Bag of Words
— TF-IDF
— Distributive semantics
— Vector Semantics
— Term-document matrix
— Word context matrix
— Dense Vectors and Embeddings
— Word2Vec
— What Next (breath: RNN, Seq2Seq, Attention, Transformers, Modern Language Models)
Вопросы
До 3 занятия мы вернем деньги.
Только если выполнять домашки и курсовые проекты.
Студент курса должен владеть языком Python на базовом уровне, помнить основы математического анализа и теории вероятностей
Регистрация
Сейчас идёт набор в группу, которая стартует 29 октября. Детали о предстоящем наборе вы получите на почту сразу после регистрации. Набор открыт до 23 октября.