Демистификация ИИ, 2025, лекция №2
Вторая лекция мини-курса "Демистификация искусственного интеллекта". Продолжаем демистификацию ИИ. В данной лекции представлен математический фундамент, лежащий в основе всех нейросетевых архитектур машинного обучения, которые являются базой современных систем искусственного интеллекта. В нашем освежающем путешествии мы проходим через понимание производной и градиента, закрепляем главное на линейной и логистической регрессиях, применяем регуляризацию и градиентный спуск, а также рассматриваем простейшую нейросеть, как вычислительный граф и вручную производим прямое и обратное распространение ошибки. Заметим, что рассматриваемые логистическая регрессия и нейросеть эквивалентно решают одну и ту же задачу. Мы можем убедиться, что за всем этим стоит элементарный математический анализ уровня средней школы со скромными дополнениями. Темы лекции: - Производная - Градиент - Линейная регрессия - Логистическая регрессия - Регуляризация - Градиентный спуск - Нейросеть, как граф - Обратное распространение ошибки Слайды: https://drive.google.com/file/d/11X_FOLQSfS6wtIr1StS3vV8_UnIKJkdo/view?usp=sharing
Вторая лекция мини-курса "Демистификация искусственного интеллекта". Продолжаем демистификацию ИИ. В данной лекции представлен математический фундамент, лежащий в основе всех нейросетевых архитектур машинного обучения, которые являются базой современных систем искусственного интеллекта. В нашем освежающем путешествии мы проходим через понимание производной и градиента, закрепляем главное на линейной и логистической регрессиях, применяем регуляризацию и градиентный спуск, а также рассматриваем простейшую нейросеть, как вычислительный граф и вручную производим прямое и обратное распространение ошибки. Заметим, что рассматриваемые логистическая регрессия и нейросеть эквивалентно решают одну и ту же задачу. Мы можем убедиться, что за всем этим стоит элементарный математический анализ уровня средней школы со скромными дополнениями. Темы лекции: - Производная - Градиент - Линейная регрессия - Логистическая регрессия - Регуляризация - Градиентный спуск - Нейросеть, как граф - Обратное распространение ошибки Слайды: https://drive.google.com/file/d/11X_FOLQSfS6wtIr1StS3vV8_UnIKJkdo/view?usp=sharing
