
Выбор между языком программирования!
Не нужно беспокоиться о том, какой язык программирования изучать. Начать работу с Python - легко научиться и увлекательно заниматься. Ресурсы можно найти на сайте w3school.com. После завершения с w3 я призываю вас пройти один платный курс Complete Python Mastery и улучшить свои навыки с помощью 3 реальных проектов. Хотя в Интернете доступно множество бесплатных курсов, важно не отклоняться от пути, по которому люди отклоняются очень часто и легко.
Почему математика для машинного обучения и искусственного интеллекта?
О, да! это облом для всех, кто ненавидит математику. Но не беспокойтесь, посмотрите темы, если вы думаете, что справитесь с Ура! Если нет, мне очень жаль, что я отнимаю ваше время. Три основных раздела математики, составляющих успешную карьеру ИИ, - это Линейная алгебра, Исчисление и Вероятность.
Вам также не нужно начинать с математики, в первую очередь, ее интересно учить, выполняя проекты. Наконец упоминаются темы математики и проектов.
За всеми значительными достижениями стоит математика. Концепции линейной алгебры, исчисления, теории игр, вероятности, статистики, продвинутой логистической регрессии и градиентного спуска - все это основные основы науки о данных. Математика помогает понять логические рассуждения и уделить внимание деталям.
Обновите свои знания в области компьютерных наук.
Если вы изучаете информатику или нет, всегда полезно обновить свои предыдущие знания о структурах данных и алгоритмах. Подумайте о том, чтобы пройти курс HARVARD UNIVERSITY из их бесплатного онлайн-курса CS50: Введение в информатику.
Темы для освещения
- Неделя 0 - царапина 😺
- Неделя 2 - Массивы
- Неделя 3 - Алгоритмы
- Неделя 4 - Память
- Неделя 5 - Структуры данных
- Неделя 6 - Python 🐍
Теперь вы на один шаг ближе к своей цели.
Искусственный интеллект с Python.
Далее следует пройти еще один курс в HARVARD UNIVERSITY из их бесплатного онлайн-курса CS50: Введение в искусственный интеллект с Python. Этот курс поможет вам начать изучение основ машинного обучения и искусственного интеллекта. После завершения вы готовы получить практический опыт и поиграть с уже полученными знаниями.
Всегда есть больше знаний, которые нужно усвоить, вы можете пропустить это сейчас и начать работу над проектами, но возвращайтесь, чтобы расширить свои знания !!
Еще один бесплатный онлайн-курс HARVARD UNIVERSITY - Наука о данных: машинное обучение!

Идеи проекта искусственного интеллекта !!
Попробуйте начать со знаменитого Титаника - Машинное обучение от катастрофы.
Разберитесь в проектах с https://youtu.be/PMmk3BEXhlo.
С помощью этих проектов вы будете изучать математические темы следующим образом:
Линейная алгебра
- Определение векторов
, скаляры, сложение, скалярное умножение, внутреннее произведение (скалярное произведение), проекция вектора, косинусное сходство, ортогональные векторы, нормальные и ортонормированные векторы, векторная норма, векторное пространство, линейная комбинация, линейный диапазон, линейная независимость, базисные векторы - Матрицы
определение, сложение, транспонирование, скалярное умножение, умножение матриц, свойства умножения матриц, произведение Адамара, функции, линейное преобразование, определитель, единичная матрица, обратимая матрица и обратная, ранг, след, популярный тип матриц - симметричный , диагональная, ортогональная, ортонормированная, положительно определенная матрица - Собственные значения и собственные векторы
понятие, интуиция, значимость, как найти - Принципиальный компонентный анализ
понятие, свойства, применение - Разложение по сингулярным значениям
понятие, свойства, применение
Исчисление
- Функции
- Скалярная производная
определение, интуиция, общие правила дифференцирования, цепное правило, частные производные - Градиент
понятие, интуиция, свойства, производная по направлению - Векторное и матричное исчисление
как найти производную {скалярной, векторной} функции по {скалярной, векторной} - ›четыре комбинации - якобиан - Градиентные алгоритмы
локальные / глобальные максимумы и минимумы, седловая точка, выпуклые функции, алгоритмы градиентного спуска - пакетный, мини-пакетный, стохастический, сравнение их производительности
Вероятность
- Основные правила и аксиомы
события, пространство выборки, частотный подход, зависимые и независимые события, условная вероятность - Случайные переменные - непрерывные и дискретные, математическое ожидание, дисперсия, распределения - совместные и условные.
- Теорема Байеса, MAP, MLE
- Популярные распределения - биномиальное, Бернулли, Пуассона, экспоненциальное, гауссовское
- Сопряженные приоры
Разное
- Теория информации - энтропия, кросс-энтропия, KL-дивергенция, взаимная информация.
- Цепь Маркова - определение, матрица переходов, стационарность.
Что дальше - загадка для меня!
Перед тем, как уйти, нажмите на кнопку «Хлопок»!