Основы анализа данных в Python: различия между версиями
(не показано 18 промежуточных версий этого же участника) | |||
Строка 64: | Строка 64: | ||
* '''Лекция 4.''' Введение в выборочное оценивание: выборочные оценки и доверительные интервалы ([https://www.dropbox.com/scl/fi/lgym2ktt7ulvn9gww05m8/04.pdf?rlkey=tchkxxa61bwxefo516tv2m8sy&dl=0 слайды]). | * '''Лекция 4.''' Введение в выборочное оценивание: выборочные оценки и доверительные интервалы ([https://www.dropbox.com/scl/fi/lgym2ktt7ulvn9gww05m8/04.pdf?rlkey=tchkxxa61bwxefo516tv2m8sy&dl=0 слайды]). | ||
* Иллюстрация действия статистических законов ([https://github.com/allatambov/PyDat23/blob/main/stat-laws.ipynb читать], [https://www.dropbox.com/scl/fi/v2wx9ahscw9oqliqaq8x7/stat-laws.ipynb?rlkey=jnl7uu04on2rjyj5x2fjtsdyi&dl=0 ipynb]). | * Иллюстрация действия статистических законов ([https://github.com/allatambov/PyDat23/blob/main/stat-laws.ipynb читать], [https://www.dropbox.com/scl/fi/v2wx9ahscw9oqliqaq8x7/stat-laws.ipynb?rlkey=jnl7uu04on2rjyj5x2fjtsdyi&dl=0 ipynb]). | ||
− | |||
− | |||
− | |||
− | |||
=== Проверка статистических гипотез === | === Проверка статистических гипотез === | ||
Строка 89: | Строка 85: | ||
=== Введение в машинное обучение === | === Введение в машинное обучение === | ||
− | * '''Лекция | + | Постановка задач машинного обучения. Виды задач машинного обучения: регрессия, классификация, кластеризация, <br>снижение размерности. |
− | * '''Лекция | + | Метод k ближайших соседей и его использование для задач классификации. |
− | * '''Практикум | + | |
+ | * '''Лекция 8.1.''' Задачи машинного обучения ([https://www.dropbox.com/scl/fi/ro7n130skg2s0bzk6ihzy/07.pdf?rlkey=u16oohb8nuwbkni3qijerjkwt&dl=0 слайды]). | ||
+ | * '''Лекция 8.2.''' Знакомство с методом k-ближайших соседей ([https://www.dropbox.com/scl/fi/lfudxs7ygf7ugzkudyj8n/08-k.pdf?rlkey=y7xf1m42noh70gldl3vlquhk6&dl=0 слайды]). | ||
+ | * '''Практикум 8.1.''' Метод k ближайших соседей: работаем с изображениями ([https://github.com/allatambov/PyDat23/blob/main/practice_knn_images.ipynb читать], [https://www.dropbox.com/scl/fi/lqri0ur5x0q3r76v4e6rw/practice_knn_images.ipynb?rlkey=bbsonkdw8z3is1ps1chcj4e8s&dl=0 ipynb], [https://www.dropbox.com/scl/fo/v4ugdpn7qg3qvc9xe70dv/h?rlkey=idw5svfv0kcfv2oi4wgqm52ev&dl=0 данные]). | ||
+ | * '''Практикум 8.2.''' Метод k ближайших соседей: работаем с числовыми данными ([https://github.com/allatambov/PyDat23/blob/main/practice_knn_dataframes.ipynb читать], [https://www.dropbox.com/scl/fi/yev8hihxbw99p317fb41r/practice_knn_dataframes.ipynb?rlkey=ob78mckmoubmhmrkpyhycbusw&dl=0 ipynb], [https://www.dropbox.com/scl/fi/8i4nhes7hs2dze14md70x/penguins.csv?rlkey=ito269dqjrczjpfg8e5x50e6v&dl=0 penguins.csv]). | ||
+ | |||
+ | === Линейная регрессия === | ||
+ | |||
+ | * '''Лекция 9.''' Парная линейная регрессия. | ||
+ | * '''Практикум 9.''' Парная и множественная линейная регрессия с точки зрения машинного обучения ([https://www.dropbox.com/scl/fi/2mooeja43n16pr33ligf9/practice-lm-01.ipynb?rlkey=481cgdrxtipjlna97epdi0ly8&dl=0 ipynb], [https://www.dropbox.com/scl/fi/i0rq1eizktu3trl8x8ji8/c.xlsx?rlkey=8bsc7szb539enwz0hymn60lv5&dl=0 c.xlsx]), решения ([https://nbviewer.org/github/allatambov/PyDat23/blob/main/practice-lm-01-solutions.ipynb читать], [https://www.dropbox.com/scl/fi/hckj1gd6t4bxd4lq7clw0/practice-lm-01-solutions.ipynb?rlkey=5j35mehoa2x2tqawm256930ix&dl=0 ipynb]). | ||
+ | * [http://shiny.calpoly.sh/3d_regression/ Визуализация] множественной линейной модели, [https://github.com/pvigier/gradient-descent визуализация] градиентного спуска. | ||
+ | |||
+ | Дополнительно – линейная регрессия с точки зрения классической статистики: | ||
+ | |||
+ | * Парная линейная регрессия ([https://github.com/allatambov/PyReg23/blob/main/reg-practice03.ipynb практикум]), модели с фиктивными переменными ([https://github.com/allatambov/PyReg23/blob/main/reg-practice04.ipynb практикум]), множественная регрессия ([https://github.com/allatambov/PyReg23/blob/main/reg-practice05.ipynb практикум]). | ||
+ | * Линейные модели с эффектом взаимодействия, выгрузка результатов регрессионного анализа ([https://github.com/allatambov/PyReg23/blob/main/reg-practice06.ipynb практикум]). | ||
+ | * Файлы с данными: [https://www.dropbox.com/scl/fi/d5hfs72lc1iga8izkfot5/flats.csv?rlkey=ojh9of42r0lyg0ptju1nlhjvn&dl=0 flats.csv], [https://www.dropbox.com/scl/fi/dqg4g209ogwmphcbvbdem/Tooth.csv?rlkey=md6iojm9xa1vw1y22gg672gn4&dl=0 tooth.csv], [https://www.dropbox.com/scl/fi/ukojdzcwaxa3zkpyz4on0/networks.csv?rlkey=663ddy4xde7i036l8wlpz5ne5&dl=0 networks.csv], [https://www.dropbox.com/scl/fi/0lh7p65rbf71ueuhk4uzf/ug_replication_data.csv?rlkey=jlnw0t6a8wair0l5vs69bbih8&dl=0 ug_replication_data.csv]. | ||
+ | |||
+ | === Логистическая регрессия === | ||
+ | |||
+ | * '''Лекция 10.''' Логистическая регрессия. | ||
+ | * '''Практикум 10.''' Множественная логистическая регрессия ([https://www.dropbox.com/scl/fi/h6msyg28pa1tug3b65f5j/practice-logit.ipynb?rlkey=czhxlvb91512ub5ne5xhqsy3v&dl=0 ipynb], [https://www.dropbox.com/scl/fi/653n8txcvvomyo557jiz8/WhiteChristmas.csv?rlkey=gwi4z0rrg7myg1cm0dg4leo8x&dl=0 WhiteChristmas.csv], [https://www.dropbox.com/scl/fi/lh5qb7vhe38z8b9brw34e/HR.csv?rlkey=lutfrwn0qh2y6sf31t4oaai8s&dl=0 HR.csv]). | ||
=== Домашние задания === | === Домашние задания === | ||
Строка 105: | Строка 122: | ||
| Домашнее задание 3 || [https://www.dropbox.com/scl/fo/jtbgu3t9srlmi3wj3tuce/h?rlkey=297v60rfpreeyml85oztcbs39&dl=0 ipynb] [https://www.dropbox.com/scl/fi/vpfq7gv57115idmpzvr3h/order_details.csv?rlkey=6syyhpqpsyvrdvwb1o4jtu73k&dl=0 order_details.csv] [https://www.dropbox.com/scl/fi/uk85o21c0zkm90992dcwf/orders.csv?rlkey=p8zmw7sma359yd7p036wus4sk&dl=0 orders.csv]|| 20.11 23:59 || Dropbox: [https://www.dropbox.com/request/bXKDl738Pslnp8KzKBEZ 211] [https://www.dropbox.com/request/3MWkXV5z4yv3g3GEXD5L 212] [https://www.dropbox.com/request/qsdhL81hxEzW900aSD8L 213] [https://www.dropbox.com/request/l3XgahaNRsJeXr2v9nhh 214] | | Домашнее задание 3 || [https://www.dropbox.com/scl/fo/jtbgu3t9srlmi3wj3tuce/h?rlkey=297v60rfpreeyml85oztcbs39&dl=0 ipynb] [https://www.dropbox.com/scl/fi/vpfq7gv57115idmpzvr3h/order_details.csv?rlkey=6syyhpqpsyvrdvwb1o4jtu73k&dl=0 order_details.csv] [https://www.dropbox.com/scl/fi/uk85o21c0zkm90992dcwf/orders.csv?rlkey=p8zmw7sma359yd7p036wus4sk&dl=0 orders.csv]|| 20.11 23:59 || Dropbox: [https://www.dropbox.com/request/bXKDl738Pslnp8KzKBEZ 211] [https://www.dropbox.com/request/3MWkXV5z4yv3g3GEXD5L 212] [https://www.dropbox.com/request/qsdhL81hxEzW900aSD8L 213] [https://www.dropbox.com/request/l3XgahaNRsJeXr2v9nhh 214] | ||
|- | |- | ||
− | | Домашнее задание 4 || | + | | Домашнее задание 4 || [https://www.dropbox.com/scl/fo/5mbmvph2yej4pgfwcupsi/h?rlkey=451th1f67wequf6hndijzzkz7&dl=0 ipynb] [https://www.dropbox.com/scl/fi/b1l3qvk4du50nakh8gmik/mushrooms.csv?rlkey=t415e4tfplkdqis6u7hicsqy6&dl=0 mushrooms.csv]|| 10.12 23:59 || Dropbox: [https://www.dropbox.com/request/2BdsGxVoKz4qY4zmps12 211] [https://www.dropbox.com/request/ydP3L3UiVfjtOpeLSLmL 212] [https://www.dropbox.com/request/tLjsZ0UrQhMLUgnncJSJ 213] [https://www.dropbox.com/request/cmgAfl5Ew5lqn1bBDVwE 214] |
− | |||
− | |||
|- | |- | ||
− | | Домашнее задание | + | | Домашнее задание 5 || [https://www.dropbox.com/scl/fo/syzupoxk93cek5ep4pq24/h?rlkey=8jtwqbcn0vahh5nr5u01j274l&dl=0 ipynb] [https://www.dropbox.com/scl/fi/y638ziw6l429rtf7rr6sr/insurance.csv?rlkey=sxv1gf539k4ho9ea150czirtu&dl=0 insurance.csv] || 17.12 23:59 || Dropbox: [https://www.dropbox.com/request/x3heyJ6FAPdarUnb3dXG 211] [https://www.dropbox.com/request/9Uu2mh7P3uoCwdOGnY2v 212] [https://www.dropbox.com/request/kFnWDItVaV3sRPEK67dV 213] [https://www.dropbox.com/request/lIayctJH1o9BGMqOZjhl 214] |
|- | |- | ||
|} | |} | ||
− | |||
− | |||
− | |||
− |
Текущая версия на 03:31, 4 мая 2024
Дорогие студенты!
Это страница обязательного курса «Основы анализа данных в Python», читаемого на программе «Политология» 3 курса бакалавриата в 1-2 модулях 2023-2024 учебного года.
Преподаватель: Тамбовцева Алла Андреевна.
Правила игры и план курса
- Программа курса, организационная презентация.
- Формула оценки: 0.21 * Тесты + 0.28 * Домашнее задание + 0.3 * Экзамен + 0.21 * Контрольная работа.
- Подробный план курса, с примерными датами.
- Сопровождающий онлайн-курс «Сбор и анализ данных в Python».
Программное обеспечение
Перед занятиями необходимо установить дистрибутив Anaconda (скачать можно здесь), который включает в себя интерпретатор языка Python, библиотеки для обработки, анализа и визуализации данных, а также среду для работы Jupyter Notebook. Также есть возможность работать в Jupyter Notebook онлайн, используя ресурс Google Colab (для создания и редактирования файлов нужен аккаунт Gmail).
Установка Anaconda и запуск Jupyter Notebook:
- Для установки Anaconda нужно скачать установочный файл для своей системы отсюда, запустить его и следовать инструкциям.
- Среду Jupyter Notebook можно запускать через приложение Anaconda Navigator (находим Anaconda Navigator в списке программ, запускаем, кликаем на кнопку Launch под Jupyter Notebook) и отдельно от него (см. инструкцию).
- Работа в Jupyter Notebook (видео), работа в Google Colab (видео).
- Набор текста в Jupyter (видео, ipynb).
Для тех, кто не работал в Python и Jupyter: можно записаться на вышкинский онлайн-курс «Python как иностранный» (открыт для записи в SmartLMS). Для подготовки рабочего места рекомендуется ознакомиться со следующими материалами в теме 1: Видео. Подготовка рабочего места, инструкция по открытию файлов в Jupyter Notebook, Видео. Первая программа, Задачи для тренировки.
Материалы
Введение в выборочные обследования
Генеральная совокупность и выборка. Репрезентативность выборки. Способы формирования выборок.
Нарушение свойства репрезентативности и виды смещений. Ошибка выборки (sampling error).
- Лекция 1. Введение в выборочные обследования (слайды, ipynb с примерами, файл students.csv).
- Практикум 1. Модуль random. Обработка данных с pandas (читать, ipynb, beasts.csv), решения (читать, ipynb).
Дополнительно:
- Массивы NumPy и датафреймы Pandas (читать).
- Основные операции с датафреймами Pandas (читать, Salaries.csv)
Описание данных
Шкалы данных. Меры центральной тенденции, меры разброса данных, порядковые статистики.
Поиск нехарактерных значений. Описание качественных данных: абсолютные и относительные частоты.
- Лекция 2. Описательные статистики (слайды).
- Практикум 2. Описательные статистики, группировка и агрегирование в pandas (читать, ipynb, c.xlsx), решения (читать, ipynb).
Визуализация данных
Визуализация количественных данных: гистограмма, график плотности распределения и ящик с усами.
Визуализация качественных данных: столбиковая диаграмма и круговая диаграмма. Принципы хорошей визуализации.
- Лекция 3. Визуализация данных (слайды).
- Практикум 3.1. Обработка пропущенных значений и визуализация количественных данных (читать, ipynb, c.xlsx), решения (читать, ipynb).
- Практикум 3.2. Обработка опросных данных и визуализация качественных данных (читать, ipynb, NPK_fin.xlsx), решения (читать, ipynb).
- Опрос: ссылка.
Выборочное оценивание
Напоминание про случайные величины и распределения. Выборочное распределение доли и выборочное распределение среднего.
Понятие стандартной ошибки. Доверительный интервал для выборочной доли. Доверительный интервал для среднего.
- Лекция 4. Введение в выборочное оценивание: выборочные оценки и доверительные интервалы (слайды).
- Иллюстрация действия статистических законов (читать, ipynb).
Проверка статистических гипотез
Проверка статистических гипотез. Концепция p-value. Ошибки первого и второго рода. Статистическая значимость.
Проверка гипотезы о равенстве доли числу. Проверка гипотезы о равенстве среднего числу. Проверка гипотезы о равенстве средних.
- Лекция 5. Проверка статистических гипотез (слайды).
- Практикум 4. Доверительные интервалы в Python (читать, ipynb, c.xlsx), решения (читать, ipynb).
- Практикум 5. Проверка гипотез в Python (читать, ipynb), решения (читать, ipynb).
Поиск связей в данных
Оценка связи между двумя признаками в количественной шкале: коэффициенты корреляции Пирсона и Спирмена.
Оценка связи между двумя признаками в качественной шкале: таблицы сопряженности и хи-квадрат критерий согласия Пирсона.
- Лекция 6. Поиск связей в данных (слайды).
- Практикум 6. Поиск связей в данных: введение (читать, ipynb, TaskB4.xlsx, c.xlsx), решения (читать, ipynb).
- Практикум 7. Повторение (Netflix.csv, читать, ipynb).
Введение в машинное обучение
Постановка задач машинного обучения. Виды задач машинного обучения: регрессия, классификация, кластеризация,
снижение размерности.
Метод k ближайших соседей и его использование для задач классификации.
- Лекция 8.1. Задачи машинного обучения (слайды).
- Лекция 8.2. Знакомство с методом k-ближайших соседей (слайды).
- Практикум 8.1. Метод k ближайших соседей: работаем с изображениями (читать, ipynb, данные).
- Практикум 8.2. Метод k ближайших соседей: работаем с числовыми данными (читать, ipynb, penguins.csv).
Линейная регрессия
- Лекция 9. Парная линейная регрессия.
- Практикум 9. Парная и множественная линейная регрессия с точки зрения машинного обучения (ipynb, c.xlsx), решения (читать, ipynb).
- Визуализация множественной линейной модели, визуализация градиентного спуска.
Дополнительно – линейная регрессия с точки зрения классической статистики:
- Парная линейная регрессия (практикум), модели с фиктивными переменными (практикум), множественная регрессия (практикум).
- Линейные модели с эффектом взаимодействия, выгрузка результатов регрессионного анализа (практикум).
- Файлы с данными: flats.csv, tooth.csv, networks.csv, ug_replication_data.csv.
Логистическая регрессия
- Лекция 10. Логистическая регрессия.
- Практикум 10. Множественная логистическая регрессия (ipynb, WhiteChristmas.csv, HR.csv).
Домашние задания
Домашнее задание | Файлы | Дедлайн | Сдача |
---|---|---|---|
Домашнее задание 1 | ipynb owls.csv | 08.10 23:59 | ссылка на Dropbox |
Домашнее задание 2 | ipynb hp_upd.csv | 10.11 23:59 | Dropbox: 211 212 213 214 |
Домашнее задание 3 | ipynb order_details.csv orders.csv | 20.11 23:59 | Dropbox: 211 212 213 214 |
Домашнее задание 4 | ipynb mushrooms.csv | 10.12 23:59 | Dropbox: 211 212 213 214 |
Домашнее задание 5 | ipynb insurance.csv | 17.12 23:59 | Dropbox: 211 212 213 214 |