(no subject) @ 01:40 pm
Записался на coursera.org на месячные курсы по самообучающимся машинам
I. Introduction (Week 1)
(7 min)
Completed What is Machine Learning? (7 min)
Completed Supervised Learning (12 min)
Completed Unsupervised Learning (14 min)
II. Linear Regression with One Variable (Week 1)
Model Representation (8 min)
Cost Function (8 min)
Intuition I (11 min)
Cost Function - Intuition II (9 min)
Gradient Descent (11 min)
Gradient Descent Intuition (12 min)
Gradient Descent For Linear Regression (10 min) forum:list?forum_id=20 for Gradient Descent For Linear Regression (10 min) Subtitles (text) for Gradient Descent For Linear Regression (10 min) Subtitles (srt) for Gradient Descent For Linear Regression (10 min) Video (MP4) for Gradient Descent For Linear Regression (10 min)
What's Next (6 min)
III. Linear Algebra Review (Week 1, Optional)
Matrices and Vectors (9 min)
Addition and Scalar Multiplication (7 min)
Matrix Vector Multiplication (14 min)
Matrix Matrix Multiplication (11 min)
Matrix Multiplication Properties (9 min)
Inverse and Transpose (11 min)
IV. Linear Regression with Multiple Variables (Week 2)
Multiple Features (8 min)
Gradient Descent for Multiple Variables (5 min)
Gradient Descent in Practice I - Feature Scaling (9 min)
Gradient Descent in Practice II - Learning Rate (9 min)
Features and Polynomial Regression (8 min)
Normal Equation (16 min)
Normal Equation Noninvertibility (Optional) (6 min)
V. Octave Tutorial (Week 2)
Basic Operations (14 min)
Moving Data Around (16 min)
Computing on Data (13 min)
Plotting Data (10 min)
Control Statements: for, while, if statements (13 min)
Vectorization (14 min)
Working on and Submitting Programming Exercises (4 min)
VI. Logistic Regression (Week 3)
Classification (8 min)
Hypothesis Representation (7 min)
Decision Boundary (15 min)
Cost Function (11 min)
Simplified Cost Function and Gradient Descent (10 min)
Advanced Optimization (14 min)
Multiclass Classification: One-vs-all (6 min)
VII. Regularization (Week 3)
The Problem of Overfitting (10 min)
Cost Function (10 min)
Regularized Linear Regression (11 min)
Regularized Logistic Regression (9 min)
VIII. Neural Networks: Representation (Week 4)
Non-linear Hypotheses (10 min)
Neurons and the Brain (8 min)
Model Representation I (12 min)
Model Representation II (12 min)
Examples and Intuitions I (7 min)
Examples and Intuitions II (10 min)
На английском (но очень простом, китайско-русская версия)
На часть лекций есть русские субтитры.
Дается язык Octave аналог MatLab -а
Надо сдавать зачеты и выдавать результаты расчетов по заданиям.
Зачетные задания на английском, но тоже простом.
На это дается квартал.
Если сильно поздно сдал - снизится оценка.
Оназывется что самообучение в примитивном случае - это составление огромной такой матрицы датчик-результат-правильность. И оно бывает даже без третьего компонента (оценки правильности, цели обучения) - тогда самообученный человек, к примеру, назовётся аналитиком. Очень часто гениальными аналитиками оеазываются больные синдромом Аспергера - матрицы без цели мозги составляют очеь хорошо.
Но самообучение - это ещё не интеллект. Это дрессировка и прогнозирование дрессируемым.
А Интеллект подразумевает отбрасывание данных, которые не нужны для цели исследования (Это назвыется Наука, такая наука), сто позволяет уменьшить размерность матицы и замечательно пропустить общеизвестные любому не столь интеллектуальному человеку зависимости.
Так вот роботы наукой заниматься не будут. Так что нас ждут новые, не научные открытия.
Теперь буду умный, как Тифарет, или даже ещё умнее.
I. Introduction (Week 1)
(7 min)
Completed What is Machine Learning? (7 min)
Completed Supervised Learning (12 min)
Completed Unsupervised Learning (14 min)
II. Linear Regression with One Variable (Week 1)
Model Representation (8 min)
Cost Function (8 min)
Intuition I (11 min)
Cost Function - Intuition II (9 min)
Gradient Descent (11 min)
Gradient Descent Intuition (12 min)
Gradient Descent For Linear Regression (10 min) forum:list?forum_id=20 for Gradient Descent For Linear Regression (10 min) Subtitles (text) for Gradient Descent For Linear Regression (10 min) Subtitles (srt) for Gradient Descent For Linear Regression (10 min) Video (MP4) for Gradient Descent For Linear Regression (10 min)
What's Next (6 min)
III. Linear Algebra Review (Week 1, Optional)
Matrices and Vectors (9 min)
Addition and Scalar Multiplication (7 min)
Matrix Vector Multiplication (14 min)
Matrix Matrix Multiplication (11 min)
Matrix Multiplication Properties (9 min)
Inverse and Transpose (11 min)
IV. Linear Regression with Multiple Variables (Week 2)
Multiple Features (8 min)
Gradient Descent for Multiple Variables (5 min)
Gradient Descent in Practice I - Feature Scaling (9 min)
Gradient Descent in Practice II - Learning Rate (9 min)
Features and Polynomial Regression (8 min)
Normal Equation (16 min)
Normal Equation Noninvertibility (Optional) (6 min)
V. Octave Tutorial (Week 2)
Basic Operations (14 min)
Moving Data Around (16 min)
Computing on Data (13 min)
Plotting Data (10 min)
Control Statements: for, while, if statements (13 min)
Vectorization (14 min)
Working on and Submitting Programming Exercises (4 min)
VI. Logistic Regression (Week 3)
Classification (8 min)
Hypothesis Representation (7 min)
Decision Boundary (15 min)
Cost Function (11 min)
Simplified Cost Function and Gradient Descent (10 min)
Advanced Optimization (14 min)
Multiclass Classification: One-vs-all (6 min)
VII. Regularization (Week 3)
The Problem of Overfitting (10 min)
Cost Function (10 min)
Regularized Linear Regression (11 min)
Regularized Logistic Regression (9 min)
VIII. Neural Networks: Representation (Week 4)
Non-linear Hypotheses (10 min)
Neurons and the Brain (8 min)
Model Representation I (12 min)
Model Representation II (12 min)
Examples and Intuitions I (7 min)
Examples and Intuitions II (10 min)
На английском (но очень простом, китайско-русская версия)
На часть лекций есть русские субтитры.
Дается язык Octave аналог MatLab -а
Надо сдавать зачеты и выдавать результаты расчетов по заданиям.
Зачетные задания на английском, но тоже простом.
На это дается квартал.
Если сильно поздно сдал - снизится оценка.
Оназывется что самообучение в примитивном случае - это составление огромной такой матрицы датчик-результат-правильность. И оно бывает даже без третьего компонента (оценки правильности, цели обучения) - тогда самообученный человек, к примеру, назовётся аналитиком. Очень часто гениальными аналитиками оеазываются больные синдромом Аспергера - матрицы без цели мозги составляют очеь хорошо.
Но самообучение - это ещё не интеллект. Это дрессировка и прогнозирование дрессируемым.
А Интеллект подразумевает отбрасывание данных, которые не нужны для цели исследования (Это назвыется Наука, такая наука), сто позволяет уменьшить размерность матицы и замечательно пропустить общеизвестные любому не столь интеллектуальному человеку зависимости.
Так вот роботы наукой заниматься не будут. Так что нас ждут новые, не научные открытия.
Теперь буду умный, как Тифарет, или даже ещё умнее.
| | Add to Memories | Tell A Friend