004. Линейные методы классификации: метод стохастического градиента - К.В. Воронцов
Курс "Машинное обучение" является одним из основных курсов Школы, поэтому он является обязательным для всех студентов ШАД. Лектор: ...
Компьютерные науки
РК6. Методы оптимизации. Методика тестирования алгоритмов поисковой оптимизации
Проблема выбора наилучших алгоритмов оптимизации для различных классов целевых функций. Организация экспериментального тестирования ...
Робототехника и комплексная автоматизация
Сириус.Дома: Оптимизация в машинном обучении
Получатель гранта РФФИ-Сириус и преподаватель кафедры дискретной математики МФТИ Марина Данилова расскажет, как решают задачи ...
Образовательный центр "Сириус"
007. Линейные методы классификации. Логистическая регрессия. - К. В. Воронцов
Курс "Машинное обучение"
Компьютерные науки
Keras Tuner - автоматическая оптимизация гиперпараметров нейросети | Нейросети на Python
Демонстрация использования Keras Tuner для подбора гиперпараметров нейронной сети, которые обеспечивают лучшее качество работы.
Andrey Sozykin
Методы оптимизации 3. Примеры задач выпуклой оптимизации
01:10 - Напоминание леммы Фаркаша 05:30 - Напоминания определения выпуклой функции 09:00 - Copositive cone 13:50 - Пример простой невыпуклой ...
Лекторий ФПМИ
Методы оптимизации 7. Градиентный спуск
3:15 - Особенности численного решения 7:05 - Критерии остановки 10:55 - Оракул 14:15 - Информация о задаче 15:15 - Вычисление следующей точки ...
Лекторий ФПМИ
Миронов А. А. - Информатика - Сведение задач к NP полным. Стохастические методы
0:10:18 1. Варианты сведения одной задачи к другой 0:13:34 2. Докажем, что 3CNF является NP полной задачей 0:31:49 3. Определение. CLIQUE в ...
teach-in
Обучение нейронных сетей | Глубокие нейронные сети на Python
Краткий обзор методов обучения нейронных сетей. Страница курса - http://www.asozykin.ru/courses/nnpython. Обучение нейронной сети – подбор весов ...
Andrey Sozykin
А.В. Гасников (МФТИ). Мини-курс. Лекция 2. Введение в теорию сложности задач выпуклой оптимизации.
Лекция 2. Введение в теорию сложности задач выпуклой оптимизации. - Точные оценки сложности класса задач гладкой, негладкой, выпуклой, сильно ...
Кавказский Математический Центр АГУ
013. Глубокое обучение: деконструкция мифа — Сергей Бартунов
Компьютерные науки
Риманова оптимизация в машинном обучении – Дмитрий Кропотов
Секция DeepBayes workshop – Cube stage, 11 мая 2019 Презентации с Data Fest 6 ...
ODS AI Global
Прикладные методы оптимизации.
Моргунов Р.Б.От 25-01-2012 Москва Высшее образование, учитья бесплатно, бюджетные места, куда перевестись, лучшый ВУЗ, институт, академия, ...
Евразийский открытый институт
Лекция 3. Перцептрон и однослойные сети.
слайды лекции: https://vk.com/doc83865491_454180587?hash=37e49000cda3837459&dl=088a76281b090b67e5.
Deep Learning School
Лекция Ивана Оселедца "Искусственный интеллект: терминаторы от Google"
Иван Оселедец, ассоциированный профессор Сколковского Института Науки и Технологий. Цикл визионерских лекций в рамках образовательного ...
2035 university
Нейросети: как они работают и с чего начать изучение
Сергей Королев, Software Engineer в Snap Inc, рассказывает о нейросетях и областях их применения. Компьютерная Школа Hillel site: https://ithillel.ua ...
Компьютерная школа Hillel
Методы оптимизации 6. Построение солверов
17:05 - Общие методы решения задач выпуклой оптимизации 19:05 - Методы внутренней точки (IPM) для выпуклых задач 30:30 - Преобразование ...
Лекторий ФПМИ
Р.В. Шамин. Теория оптимизации - лекция № 05
Темы лекции: 1. Генетические алгоритмы 2. Функция приспособленности 3. Общая схема генетических алгоритмов 4. Методы обновления особей 5.
Roman Shamin
Денис Ярец (FAIR, NYU) - Квази-гиперболические методы оптимизации для глубинного обучения
Денис получает степень доктора наук в области машинного обучения в Нью-Йоркском университете. Также работает инженером-исследователем в ...
Bulba Ventures
[DeepBayes] День 3, лекция 2. Сергей Бартунов. Байесовские методы в обучении с подкреплением
ФКН ВШЭ
C++ Siberia 2020: Виталий Брагилевский - Управление ресурсами: линейные типы спешат на помощь
Как известно, языки программирования слабы в описании того, что нужно делать разработчикам. Они, конечно, пытаются помочь, но не всегда успешно ...
C++ User Group
Машинное обучение. Семинар 8. Neural Networks on numpy
Ссылка на материалы занятия: https://github.com/girafe-ai/ml-mipt/tree/basic_s20/week0_08_Intro_to_DL Лекция: https://youtu.be/wgWfAMhw5ik Лекции по ...
Лекторий ФПМИ
Нейронный Автоэнкодер. Классификация качества пользователей.
Мероприятие: MEETUP день 1 Дата проведения: 23.05.2019 Раскрыта тема доклада: Mobile user acquisition quality classification using Neural ...
ML Meetup
Лекция 8. Обучение на больших выборках, Vowpal Wabbit. Открытый курс ODS по машинному обучению
For lectures in English, check out this playlist https://bit.ly/2zY6Xe2 Это видео совпадает с https://www.youtube.com/watch?v=MnLc7xKSAsk только звук ...
Yury Kashnitsky
Начало работы с нейронными сетями (с примером в Keras)
Основы глубокого обучения. С чего начать изучение нейронных сетей? Архитектура нейронной сети. Анатомия нейронной сети. Функции потерь и ...
AI Data Scientist
Машинное обучение. Прогнозирование временных рядов. К.В. Воронцов, Школа анализа данных, Яндекс.
Прогнозирование временных рядов – это специальный случай задачи регрессии, в которой объекты выборки линейно упорядочены по времени.
Компьютерные науки
Защита докторской диссертации А.В.Гасникова
Optimization and Statistics in MIPT
Современные методы математической оптимизации в IT-Enterprise.APS\MES 2015
Теоретические основы управления. Современные методы математической оптимизации в IT-Enterprise.APS\MES 2015. Подходы, реализация, опыт ...
IT-Enterprise
Градиентный бустинг: возможности, особенности и фишки | Технострим
Мероприятие: Moscow Data Science Meetup, 31.05.2017 Выступающий: Алексей Натекин, DM Labs, OpenDataScience Многие пользуются градиентным ...
Технострим Mail.Ru Group
003. Логические алгоритмы классификации - К.В. Воронцов
Курс "Машинное обучение" является одним из основных курсов Школы, поэтому он является обязательным для всех студентов ШАД. Лектор: ...
Компьютерные науки
Прикладное машинное обучение 9. Глубокое обучение с подкреплением.
Лекция от 01.11.2019 Лектор: Радослав Нейчев Лекции потока 2020: https://www.youtube.com/playlist?list=PL4_hYwCyhAvY7k32D65q3xJVo8X8dc3Ye ...
Лекторий ФПМИ
Машинное обучение. Семинар 2. Linear Regression SGD. Preprocessing. Pipeline
Ссылка на материалы занятия: https://github.com/girafe-ai/ml-mipt/tree/basic_s20/week0_02_linear_reg Лекция: https://youtu.be/GKIkGc2bnmU 00:07 - SGD, ...
Лекторий ФПМИ
Вебинар от Валерия Бабушкина для участников Школы 21: Data Science
School 21
Глубокое обучение с MATLAB - Оптимизация параметров и гиперпараметров сети
В этом видео вы узнаете как настраивать опции для оптимизации параметров сети. Также будет рассмотрен вопрос об оптимизации гиперпараметров ...
MATLABinRussia
Обучение с подкреплением на примере игры 'крестики нолики' // Бесплатный урок OTUS
Трансляция проходила 11 марта 2020 года На вебинаре вы: познакомитесь с reinforcement learning узнаете, как применять машинное обучение для игр ...
OTUS Онлайн - образование
5. Модель нейрона: лекция
Время начинать изучать нейросети! Чтобы понять, как они работают, необходимо понимать работу одного нейрона. На этом занятии речь как раз идёт ...
Deep Learning School
Что же делает AlphaGo? Глубокое обучение с подкреплением | Сергей Николенко | Лекториум
Что же делает AlphaGo? Глубокое обучение с подкреплением | Конференция: Машинное обучение и анализ алгоритмов | Лектор: Сергей Николенко ...
Лекториум
Презентации программ бакалавриата ФПМИ | Математика и физика (ПМФ)
Группа ФПМИ МФТИ: https://vk.com/miptfpmi Группа абитуриентов ФПМИ МФТИ: https://vk.com/abitu.
ФПМИ МФТИ
[DeepBayes] День 5, лекция 2. Дмитрий Молчанов. Байесовские нейросети
ФКН ВШЭ
Прикладное машинное обучение 10. Policy gradient.
Лекция от 08.11.2019 Лектор: Радослав Нейчев Лекции потока 2020: https://www.youtube.com/playlist?list=PL4_hYwCyhAvY7k32D65q3xJVo8X8dc3Ye ...
Лекторий ФПМИ
«Мультиагентные системы искусственного интеллекта», Дулат Ерзат
Ерзат Дулат, энтузиаст машинного обучения. Поговорим о multiagent reinforcement learning, активно набирающей популярность области исследований ...
Kolesa Group
Гомологичный фолдинг белков | Павел Яковлев (BIOCAD)
Летняя школа по биоинформатике: http://bioinformaticsinstitute.ru/summer2017 В современной структурной биологии есть ряд вычислительных методов, ...
Институт биоинформатики