{
 "cells": [
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "# Прогноз литологии по данным геофизических исследований скважин"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "\n",
    "Автор: Егоров Дмитрий (Газпромнефть - НТЦ)\n",
    "\n",
    "\n",
    "Контакты:\n",
    "\n",
    "Почта - zelilockerz@gmail.com\n",
    "\n",
    "github - https://github.com/zelizpriest\n",
    "\n",
    "slack ODS - @zel1\n",
    "\n",
    "Telegram - @DmitryEgorovGeol"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "<a rel=\"license\" href=\"http://creativecommons.org/licenses/by-nc-nd/3.0/\"><img alt=\"Лицензия Creative Commons\" style=\"border-width:0\" src=\"https://i.creativecommons.org/l/by-nc-nd/3.0/88x31.png\" /></a><br />Это произведение доступно по <a rel=\"license\" href=\"http://creativecommons.org/licenses/by-nc-nd/3.0/\">лицензии Creative Commons С указанием авторства-Некоммерческая-Без производных 3.0 Непортированная</a>.\n",
    "\n",
    "<a rel=\"license\" href=\"http://creativecommons.org/licenses/by-nc-nd/3.0/\"><img alt=\"Creative Commons License\" style=\"border-width:0\" src=\"https://i.creativecommons.org/l/by-nc-nd/3.0/88x31.png\" /></a><br />This work is licensed under a <a rel=\"license\" href=\"http://creativecommons.org/licenses/by-nc-nd/3.0/\">Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported License</a>."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 1.1 Описание кейса\n",
    "В нефтяной индустрии одной из главных задач является интерпретация данных геофизических исследований скважин (каротажных данных). После того, как скважина была пробурена, в нее опускаются приборы, которые меряют различные физических характеристики пород. После этого полученные данные интерпретируются специалистами петрофизиками, последние выделяют различные литологии, а именно интервалы глин и песчанника.\n",
    "Выделение литологии является достаточно рутинной, но очень трудоемкой задачей. Переинтерпретация данных происходит достаточно часто, как в связи с измененией модели выделения песчаника, так и связи с появлением новых скважин. Поскольку количество скважин может исчисляться тысячами, хотелось бы создать инструмент, который смог бы помогать специалисту в этом задании."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Загружаем необходимые библиотеки\n",
    "import pandas as pd\n",
    "import numpy as np\n",
    "import random as rd\n",
    "import seaborn as sns\n",
    "import matplotlib.pyplot as plt\n",
    "from sklearn.ensemble import GradientBoostingClassifier\n",
    "from sklearn.linear_model import RidgeClassifier\n",
    "from sklearn.metrics import f1_score, roc_auc_score\n",
    "from sklearn.model_selection import StratifiedKFold, GridSearchCV, validation_curve, learning_curve\n",
    "import time\n",
    "import math\n",
    "%matplotlib inline"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "**Права на данный принадлежат комании ООО \"Газпромнефть - НТЦ\"**\n",
    "\n",
    "Скачиваем данные [отсюда](https://github.com/zelizpriest/well_log_interpretation/tree/master/data)."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Загружаем данные тренировочной части\n",
    "train_data = pd.read_csv('../../data/Well_logs_interp_test_train.csv')"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 1.2 Описание данных\n",
    "\n",
    "На основе седиментологического описания одного из обнажений геологических обнажений, расположенного в Томской области (Шестаковский полигон), была построена 3D геологическая модель.\n",
    "\n",
    "Модель представляет из себя трехмерный грид ячеек. Каждая ячейка определена как песчанник, либо как глина, также в каждой из них имеется запись геофизических исследований."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Столбец **Well** показывает то, к какой скважине принадлежат измерения. Название скважины отражает ее координаты на месторождении.\n",
    "\n",
    "Каждая скважина представлена 4 каротажными кривыми:\n",
    "- **DEPT** (глубина записи дискрета, в общем случае, она нас не интересует и не может выступать как признак, так как зависит от различных тектонических подвижек, произошедших после отложения осадка, а не от процесса формирования геологических тел)\n",
    "- **SP** (каротаж естественной поляризации, последняя возникает при фильтрации флюида через породу, уменьшение значений говори о наличии проницаемого интервала, единица измерения - милливольты)\n",
    "- **GR** (гамма каротаж, измеряет естественную радиоактивность пород, различные минералы имеют разное содержание радиоактивных материалов, как правило, чем выше - тем больше глинистая составляющая и меньше песчанистая, измеряется в единица API)\n",
    "- **DT** (акустический каротаж, измеряет скорость прохождения акустической волны сквозь породу, как правило, с пониженные значения могут говорить как о высокой пористости, характерной для песчанника, так и о количестве глины, измеряется в микросекундах/метр)\n",
    "- **Density** (плотностной каротаж, основан на комптоновском рассеянии, отражает плотность породы, измеряется в граммах/см^3)\n",
    "\n",
    "В качестве кривой интерпретации столбец **Litho**, который при значении **1** говорит о песчанник, а при значении **0** о глинах.\n",
    "\n",
    "Одна из скважин в таком виде, в каком с ней работают специалисты, представлена ниже.\n",
    "<img src=\"../../img/log_interpretation.png\">"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 2. Первичный анализ данных\n",
    "\n",
    "В этом блоке будет проведен первичный анализ данных, будут оценены признаки и их распределния, а также влияние на целевой параметр."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Посмотрим, какие типы данных представлены в загруженном файле и есть ли в нем пропуски\n",
    "train_data.info()"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Можно сделать вывод, что пропуски отсутствуют, а все описанные кривые геофизических исследований представлены в полном объеме."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Посмотрим описание данных, оценим основные статистические характеристики\n",
    "# Также посмотрим 5 и 95 перцентили, для оценки выбросов\n",
    "print(train_data.quantile(0.05))\n",
    "print(train_data.quantile(0.95))\n",
    "train_data.describe()"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Можно увидеть, что значения находятся в совершенно разных масштабах, что естественно, так как измеряются разные физические характеристики. По колонке **Litho**, можно отметить, что песчанник занимает лишь 33 процента от данных, что делает проблему несколько несбалансированной. \n",
    "Поскольку 5-ый и 95-ый перцентили имеют значения близкие к минимальным и максимальным, то стоит проверить данные на выбросы."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Дополнительно оценим количество выбросов, выходишь за два стандартных отклонения для каждой из кривой\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    mean = train_data[column].mean()\n",
    "    std = train_data[column].std()\n",
    "    print('Number of outlies for well log %s is %d'%(column,\n",
    "                                                     (train_data.loc[train_data[column] >=\n",
    "                                                                     mean + 2*std,column].shape[0] + \n",
    "                                                      train_data.loc[train_data[column] <=\n",
    "                                                                     mean - 2*std,column].shape[0])))"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Можно увидеть, что кривая плотностно каротажа содержит значительное количество выбросов в терминах стандартных отклонений, которые надо будет обработать."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Посмотрим статистику по данным только внутри песчанника\n",
    "\n",
    "train_data[train_data.Litho == 1].describe()"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Можно отметить, что интервалах песчанника кривые **SP** и **GR** имеют пониженное значение, что вполне естественно, так как песчанник содержит мало глинистых радиоактивных минералов, а способность интервала к фильтрации создает разницу потенциалов. Несколько пониженные значения плотностей говорят о наличии порового пространства и являются признаком песчанника. Повышенные значения времени интервального пробега волны говорят о пониженной скорости, что также подразумевает последний вывод о наличии порового пространстве, так как скорость распространения волн в низкоплотных материалах ниже."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Посмотрим статистику по данным только внутри глин\n",
    "\n",
    "train_data[train_data.Litho == 0].describe()"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "В интервалах глин мы видим обратную ситуацию, кривые **SP** и **GR** имеют повышенные значения, также несколько повысились значения плотностного каротажа, а также понизились значения акустической кривой."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Оценим корреляцию параметров\n",
    "corr_mat = train_data.corr()\n",
    "corr_mat"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Как и предполагалось ранее, какая-то корреляция между глубиной и физическими характеристиками отсутствует, в связи с тем, что рассматривается не очень большой интервал пласта (на глубинах измеряемых километрами некая связь должна прослеживаться в связи с уплотнением пород и большими давлениями). Также можно отметить высокую корреляцию каротажей, что естественно, так как многие физические характеристики тесно связаны друг с другом."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 3. Визуальный анализ данных\n",
    "\n",
    "В этом блоке будет проведен визуальный анализ данных с целью получить какую-то дополнительную информацию о распределении параметров, имеющихся зависимостях в них и оценить выбросы."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Проведем визуальную оценку имеющийся информации через pairplot'ы\n",
    "\n",
    "sns.pairplot(train_data, vars = ['SP', 'GR', 'DT', 'Dens'], hue = 'Litho', palette = ['brown', 'gold'])"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "По результатам визуальной оценки можно отметить, что классы достаточно хорошо линейно разделимы в поле двух значений, хотя имеется значительная доля перекрытия, которая не позволяет легко линейными моделями получить высокое значение точности.\n",
    "Также важно отметить наличие вылетов, которые не было опознаны при первичном анализе и которые в дальнейшем стоит обработать. Например, отлетающие точки на кросс-плотах кривых **GR** и **SP**."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Построим heatmap по ранее созданной корреляционной матрицы для более наглядной оценки связей между кривыми\n",
    "sns.heatmap(corr_mat)"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "На основе карты температур все также подтверждается предположение об отсутствии каких-то связей между показаниями приборов и глубиной, поэтому пока данный параметр можно не использовать, так как он может внести дополнительный шум."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Построим бокс-плоты по четырем геофизическим кривым, чтобы оценить распределение значений внутри классов\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    plt.figure()\n",
    "    sns.boxplot(data = train_data, x = 'Litho', y = column)\n",
    "    plt.show()"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "И снова можно увидеть, что большая часть данных достаточно легко линейно разделима, но такое разделение не даст необходимого уровня точности из-за имеющихся перекрытий.\n",
    "\n",
    "Также стоит отметить наличие значительного количества выбросов акустического и плотностного каротажа в глинистых интервалах."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Попробуем оценить можно ли извлечь информацию из координат скважин\n",
    "well_check = pd.DataFrame()\n",
    "for well in train_data.Well.unique():\n",
    "    well_x, well_y = map(int, well.split('-'))\n",
    "    well_pd = pd.DataFrame({'X':well_x,\n",
    "                           'Y':well_y,\n",
    "                           'Sand_ratio':train_data[train_data.Well == well]['Litho'].value_counts(1)[1]},\n",
    "                           index = [0])\n",
    "    well_check = well_check.append(well_pd)\n",
    "plt.figure(figsize=(20, 10))\n",
    "plt.scatter(x = well_check['X'], y = well_check['Y'], c = well_check['Sand_ratio'], cmap = 'jet', lw = 10)"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Можно отметить, что значения повышенной песчанистости (отношения толщины интервалов песчанника к общей толщине интервала) имеет некую зависимость от координат. Повышенные значения расположены на юге и западе месторождения."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 4. Инсайты, найденные зависимости\n",
    "\n",
    "По результатам анализа можно отметить, что кривые достаточно хорошо коррелируются. Также есть связь между классами и значениями кривых. Так, для целевого класса песчанник (1) характерны пониженные значения кривых SP и GR, так как интервалы при фильтрации флюида создают разницу потенциалов, а наличие малого количества глины не дает повышаться кривой гамма-каротажа. Пониженные значения плотностей предполагают наличие порового пространства, характерного для песчанников. Повышенные значения интервального времени пробега волны связаны с понижением скорости, которая в свою очередь зависит от плотности породы. Последние утверждения также позволяют предположить, что в будущем стоит попробовать использование дополнительного признака - акустического импеданса, который является произведение плотности породы на скорость в ней.\n",
    "\n",
    "По результатам анализа, как первичного, так и визуального, было установлено, что классы достаточно хорошо линейно разделими в поле двух каротажных кривых. При этом разделение далеко не идеальное и требует доработки через построение новых признаков.\n",
    "\n",
    "Было выявлено значительное количество вылетов, особенно на кривой плотностного каротажа. В дальнейшем такие точки необходимо обработать (замена значений за двумя стандартными отклонениями на значение двух стандартных отклонений).\n",
    "\n",
    "Важным выводом было заключение о возможности извлечения дополнительной информации из координат скважины, которые до этого не рассматривались как признак который можно использовать. В дальнейшем стоит опробовать его в качестве дополнительного признака."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 5. Выбор метрики\n",
    "\n",
    "Поскольку мы имеем дело с задачей классификации, выбор метрики может быть сделан из списка следующего списка самых распротранненых метрик для подобной задачи: accuracy, precision, recall, F1, ROC-AUC\n",
    "\n",
    "Метрика **Accuracy** не подходит, так как имеется дисбаланс классов, и, например, если алгоритм предскажет все значения как глина, то сразу получим 70% точности, что не верно.\n",
    "\n",
    "Метрики **precision** и **recall** не стоит применять, так как в данном случае сложно поставить задачу в подобном ключе, чтобы мы могли выбрать какая метрика важнее в данной проблеме.\n",
    "\n",
    "Наилучшим вариантом в случае несбалансированности классов является **F1** и **AUC** метрики, так как они индиффирентны к количеству и представленности каждого класса. \n",
    "\n",
    "В первую очередь внимание будет сосредоточено именно на **AUC**, так как она идеально подходит для задачи бинарной классификации в которой есть проблема несбалансированности классов."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 6. Выбор модели\n",
    "\n",
    "Основные требования к модели - возможность работать с разномасштабными данными, устойчивость к выбросам и несбалансированности в классах.\n",
    "\n",
    "Поскольку одни и те же кривые каротажных исследований имеют одинаковый масштаб во всех скважинах, то нет необходимости использовать модели, который могли бы разделять классы при значениях, выбивающихся за эти масштабы. Таким образом можно сразу исключить линейные модели. Для ряда моделей требуется, чтобы все данные были в одинаковом масштабе, чего нет в данной задаче. Данные можно нормализовать, но это может привести к другим проблемам. Поэтому пока что стоит отказаться от подобных моделей, например, от К ближайших соседей.\n",
    "\n",
    "Для данной задачи идеально подойдут модели, работающие на построении ансамблей деревьев. Ансамбли устойчивы к выбросам и им неважен масштаб данных. Огромным плюсом является их возможность \"раздвинуть\" классы, которые, как было показано ранее, достаточно сильно перехлестываются. Важное преимущество - более устойчивая работа с несбалансированной выборкой, благодаря бэггингу и бустингу.\n",
    "\n",
    "В данной работе был выбран классификатор **GradientBoostinClassifier** библиотеки **scikit-learn** как один из лучших представителей в своем классе."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 7. Предобработка данных\n",
    "\n",
    "В данном блоке будет проведена предобработка данных, будут обработаны выбросы, а также проведено разбиение на тренировочную и тестовую части. Поскольку во всех скважинах данные записаны в одинаковом масштабе, индивидуальном для каждого типа кривой, необходимость в нормализации или стандартизации отсутствует, так как будет использоваться модель построенная на ансамбле деревьев, индиффирентная к масштабу данных."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Обработаем вылеты, приравняв все значения находящиеся за 5-ым или 95-ым перцентилем в соответствующие значения\n",
    "train_no_outliers = train_data.copy()\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    quant_95 = train_no_outliers[column].quantile(0.95)\n",
    "    quant_5 = train_no_outliers[column].quantile(0.05)\n",
    "    train_no_outliers.loc[train_no_outliers[column] > quant_95, column] = quant_95\n",
    "    train_no_outliers.loc[train_no_outliers[column] < quant_5, column] = quant_5"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Как было отмечено ранее, координата скважины, извлеченная из ее названия, также может нести в себе информацию. Стоит обработать название и превратить его в соответствующие признак **X** и **Y**. Это будет одним из шагов на пути генерации дополнительных данных (feature engineering), который также будет дополнен позднее."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# извлечем данные из названий скважин и получим координаты\n",
    "train_no_outliers['X'] = ([int(i[:3]) for i in train_no_outliers.Well.values])\n",
    "train_no_outliers['Y'] = [int(i[-3:]) for i in train_no_outliers.Well.values]"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Разобьем данные на тренировочную и hold-out, которые будут использоваться для обучения модел и настройки гиперпараметров. В заключительной части работы будет использоваться дополнительная выборка, которая была отложена ранее и находится в другом файле.\n",
    "\n",
    "Говоря о разбиении на тренировочную и hold-out выборки, следует подчеркнуть, что правильнее будет разбивать весь набор данных именно по отдельным скважинам, нежели просто случайно разделить все значения сета коробочным train_test_split'ом.\n",
    "\n",
    "Значения для разбиения будут стандартными 0.7 для тренировочной части и 0.3 для hold-out."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Разобьем данные на тренировочную и hold-out выборку по скважинам\n",
    "train_test = 0.7\n",
    "rd.seed(17)\n",
    "train_wells = rd.sample(train_data.Well.unique().tolist(), round(train_test*len(train_data.Well.unique())))\n",
    "train_set = train_no_outliers.loc[train_no_outliers.Well.isin(train_wells)]\n",
    "test_set = train_no_outliers.loc[~train_no_outliers.Well.isin(train_wells)]"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Разобьем полученные выборки на матрицу признаков и вектор ответов\n",
    "Feature_train = train_set.drop(['Well', 'DEPT', 'Litho'], axis = 1)\n",
    "Target_train = train_set['Litho']\n",
    "\n",
    "Feature_test = test_set.drop(['Well', 'DEPT', 'Litho'], axis = 1)\n",
    "Target_test = test_set['Litho']"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 8. Построение модели, кросс-валидация и настройка гиперпараметров\n",
    "\n",
    "В данной части будет проведена работа с построением выбранной модели и настройкой ее гиперпараметров."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Поскольку на этапе визуального анализа данных было отмечено, что классы вполне хорошо линеймо разделими, возьмем простую модель логистической регрессии в качестве baseline-решения, точность которого будет необходимо превзойти в рамках разработки более сложного подхода в решению задачи."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Построем baseline-модель логистической регрессии от метрик которой будем отталкиваться\n",
    "baseline_clf = RidgeClassifier()\n",
    "baseline_clf.fit(Feature_train, Target_train)\n",
    "baseline_prediction = baseline_clf.predict(Feature_test)\n",
    "roc_auc_base = roc_auc_score(Target_test, baseline_prediction)\n",
    "f1_base = f1_score(Target_test, baseline_prediction)\n",
    "print('ROC-AUC метрика baseline модели равна %.4f'%roc_auc_base)\n",
    "print('F1 метрика baseline модели равна %.4f'%f1_base)"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Как можно увидеть, результат уже достаточно неплохой, но это было вполне очевидно, что линейное разделение должно хорошо себя вести. Дело в том, что выделяя пропластки мы подразумеваем их последующую перфорацию (взрыв на выделенной глубине с целью получить приток из пласта) и подсчет находящихся в них запасах, поэтому даже такой высокой оценки как 0.85 может быть недостаточно для использования инструмента."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Создадим обьект для кросс-валидацонной выборки\n",
    "stratified_cv = StratifiedKFold(n_splits=3, random_state=17)"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Для кросс-валидации был использован стандартный пакет библиотеки sklearn - StratifiedKFold.\n",
    "\n",
    "Стратифицированная версия была выбрана в связи с несбалансированностью классов, данная библиотека позволяет разделять выборки равномерно.\n",
    "\n",
    "Параметр **random_state** был зафиксирован для возможности повторить результат.\n",
    "\n",
    "Поскольку дата-сет достаточно большой, вычислительные мощности не позволяют проводить стратификацию на очень большом количестве складок. Чтобы оценить разлет значений на кросс-валидации и при этом не перегрузить компьютер, количество складок (параметр **n_splits**) было выбрано равным трем."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Создадим саму модель с зафиксированным сидом\n",
    "clf = GradientBoostingClassifier(random_state=17,\n",
    "                                 learning_rate = 0.01,\n",
    "                                 subsample = 0.5,\n",
    "                                max_depth = 8,\n",
    "                                max_features = 'auto')\n",
    "\n",
    "# Определим словарь параметров, по которому будет происходить отбор признаков\n",
    "grid_params = {'n_estimators':list(range(100, 1001, 100))}\n",
    "\n",
    "# Создадим классификатор для поиска лучших гиперпараметров\n",
    "# Поскольку диапазов гиперпараметров очень широкий, кросс-валидации проходит по 5 складкам\n",
    "# Используем RandomizedSearchCV вместо стандартного GridSearchCV, который проходит по всем вариациям параметров\n",
    "\n",
    "grid_clf = GridSearchCV(clf, \n",
    "                              param_grid=grid_params,\n",
    "                              cv = stratified_cv,\n",
    "                              scoring = 'roc_auc',\n",
    "                              n_jobs = -1)\n",
    "\n",
    "start_time = time.time()\n",
    "\n",
    "# Обучим модель\n",
    "grid_clf.fit(Feature_train, Target_train)\n",
    "\n",
    "end_time = time.time()\n",
    "\n",
    "print('Модель обучилась за %d секунд.'%(end_time-start_time))\n"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Был создан объект классификатора, который будет использоваться в последующем тюнинге с постоянным параметров **random_state** для возможности повторения результата.\n",
    "\n",
    "Во время тюнинга модели производился подбор и настройка следующих гиперпараметров:\n",
    "\n",
    "- **learning_rate** - отвечает за скорость, с которой будет происходить обучение классификатора, уменьшает вклад каждого дерева в прогноз\n",
    "- **n_estimators** - количество деревьев в ансамбле, по которому принимается окончатльное решение, увеличение, обычно, ведет к улучшению качества модели\n",
    "- **max_depth** - максимальная глубина до которой строится дерево, тем самым ограничивая количество листьев в нем\n",
    "- **subsample** - количество данных, используемых при построении дерева, если значение меньше нуля, то в результате обучения получится некий аналог стохастического градиентного спуска\n",
    "- **max_features** - количество признаков, по которым будут строиться деревья\n",
    "\n",
    "Поскольку дата-сет достаточно большой, а различных параметров для настройки также достаточно много, полный перебор параметров непосредственно в работе может занять значительное время. В связи с этим предварительно был произведен достаточно долгий **RandomizedSearchCV**, позволивший определить наилучшие значения для части из параметров (которые уже инициализированы в модели при ее создании).\n",
    "\n",
    "В представленном ноутбуке же производится поиск лишь по количеству деревьев (**n_estimators**) с помощью **GridSearchCV**, этот параметр, в большинстве случаев, вносит наибольший вклад в качество прогноза и поэтому интересен с точки зрения анализа его влияния в процессе валидации. Метрикой качества был выставлен **roc_auc**, который ранее был определен как наиболее подходящая для данной задачи. Также для ускорения расчета был выставлен параметр **n_jobs = -1**, позволяющий алгоритму задействовать все ядра процессора."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Определим наилучшие параметры модели\n",
    "\n",
    "print('Выбранное количество деревьев:\\n%s'%grid_clf.best_params_['n_estimators'])\n",
    "\n",
    "# Определим точность модели на кросс-валидации\n",
    "print('На кросс валидации лучший результаты по ROC-AUC составил %.4f'%grid_clf.best_score_)\n",
    "\n",
    "# Определим точность модели на тестовой выборке для ее сравнения с baseline-решением\n",
    "prediction_clf = grid_clf.predict(Feature_test)\n",
    "roc_auc_clf = roc_auc_score(Target_test, prediction_clf)\n",
    "f1_clf = f1_score(Target_test, prediction_clf)\n",
    "print('ROC-AUC метрика полученной модели градиентного бустинга на тестовой части равна %.4f'%roc_auc_clf)\n",
    "print('F1 метрика полученной модели градиентного бустинга на тестовой части равна %.4f'%f1_clf)\n",
    "print('Разница между настроенной моделью градиентного бустинга и baseline по ROC-AUC метрике равна %.4f'%(\n",
    "    roc_auc_clf-roc_auc_base))\n",
    "print('Разница между настроенной моделью градиентного бустинга и baseline по F1 метрике равна %.4f'%(\n",
    "    f1_clf-f1_base))"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Как мы видим, использование модели градиентного бустинга с настроенными параметрами дало прирост к точности прогнозирования."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 9. Создание новых признаков (feature engineering)\n",
    "\n",
    "В данной части будет проведена работа по созданию новых признаков на основе физического смысла проводимых исследований, а также с помощью различных математических трансформаций уже имеющихся данных.\n",
    "\n",
    "Некоторые дополнительные признаки уже были созданы ранее - координаты расположения скважин X и Y, полученные из названий скважин."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Дополнительно будут созданы следующие параметры:\n",
    "\n",
    "### Физические и геологические признаки\n",
    "\n",
    "- **Скорость продольной волны** - скорость прохождения волны в породе, чем меньше параметр - тем более пористая порода\n",
    "- **Акустический импеданс** - произведение скорости прохождения волны в породе на ее плотность, обычно пониженные значения акустического импеданса говорят о наличии песчанника. Данная кривая будет строиться на основе кривой акустического и плотностного каротажей.\n",
    "- **Пористость по плотностному каротажу** - отношение пор в породе к общему объему породы расчитанное по данным плотностного каротажа. Считается по формуле (Density-зерен-породы-Dens)/(Density-зерен-породы - Density-флюида)\n",
    "- **Пористость по акустическому каротажу** - отношение пор в породе к общему объему породы расчитанное по данным акустического каротажа. Считается по формуле (DT-DT-зерен-породы)/(DT-флюида-DT-зерен-породы)\n",
    "\n",
    "### Математические признаки\n",
    "\n",
    "- **Степенные кривые** - имеющиеся кривые будут возведены в степень в целью дополнительно разделить классы в разных пространствах\n",
    "- **Производная кривой** - с ее помощью можно более четко подчеркивать границы пластов, будет считаться как разница двух ближайших значений деленная на величину дискрета - 0.1 м.\n",
    "- **Логарифм кривой** - поскольку некоторые кривые распределены ненормально, можно попробовать взять их логарифм и работать в этом пространстве."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Повторим предыдущие шаги из обработки данных чтобы пересоздать дата-сет\n",
    "train_featured = train_data.copy()\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    quant_95 = train_featured[column].quantile(0.95)\n",
    "    quant_5 = train_featured[column].quantile(0.05)\n",
    "    train_featured.loc[train_featured[column] > quant_95, column] = quant_95\n",
    "    train_featured.loc[train_featured[column] < quant_5, column] = quant_5\n",
    "\n",
    "# извлечем данные из названий скважин и получим координаты\n",
    "train_featured['X'] = ([int(i[:3]) for i in train_featured.Well.values])\n",
    "train_featured['Y'] = [int(i[-3:]) for i in train_featured.Well.values]\n",
    "\n",
    "# Добавим физические и геологические признаки\n",
    "# Добавим признак скорости продольной волны в породе\n",
    "train_featured['P_velocity'] = 1/train_featured['DT']\n",
    "\n",
    "# Добавим признак акустического импеданса\n",
    "train_featured['Acoustic_imp'] = train_featured['DT']*train_featured['Dens']\n",
    "\n",
    "# Добавим признак пористости по плотностному каротажу, плотность породы возьмем постоянной 2.65, флюида - 1 г/см^3\n",
    "train_featured['Por_Dens'] = (2.65 - train_featured['Dens'])/(2.65-1)\n",
    "\n",
    "# Добавим признак пористости по плотностному каротажу, интервальное время пробега в породе - 180\n",
    "# интервальное время пробега во флюиду - 616\n",
    "train_featured['Por_DT'] = (train_featured['DT'] - 180)/(616-180)\n",
    "\n",
    "\n",
    "# Добавим математические признаки\n",
    "# Добавим степенные кривые и логарифм\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    train_featured['%s^2'%column] = train_featured[column]*train_featured[column]\n",
    "    train_featured['%s^3'%column] = train_featured[column]*train_featured[column]*train_featured[column]\n",
    "    if column != 'SP':\n",
    "        train_featured['Log_%s'%column] = np.log(train_featured[column])\n",
    "    \n",
    "# Добавим производную, стоит отметить, что ее следует считать индивидуально для каждой скважины\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    train_featured['%s_gradient'%column] = 0\n",
    "    for well in train_featured.Well.unique():\n",
    "        train_featured.loc[train_featured.Well == well,\n",
    "                           '%s_gradient'%column] = np.gradient(train_featured.loc[train_featured.Well == well,\n",
    "                                                                                  column], 0.1)\n",
    "\n",
    "# Разобьем данные на тренировочную и hold-out выборку по скважинам\n",
    "train_test = 0.7\n",
    "rd.seed(17)\n",
    "train_wells = rd.sample(train_data.Well.unique().tolist(), round(train_test*len(train_data.Well.unique())))\n",
    "train_set_featured = train_featured.loc[train_featured.Well.isin(train_wells)]\n",
    "test_set_featured = train_featured.loc[~train_featured.Well.isin(train_wells)]\n",
    "\n",
    "# Разобьем полученные выборки на матрицу признаков и вектор ответов\n",
    "Feature_train_feat = train_set_featured.drop(['Well', 'DEPT', 'Litho'], axis = 1)\n",
    "Target_train_feat = train_set_featured['Litho']\n",
    "\n",
    "Feature_test_feat = test_set_featured.drop(['Well', 'DEPT', 'Litho'], axis = 1)\n",
    "Target_test_feat = test_set_featured['Litho']"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Проведем новый подбор гиперпараметров в связи с тем, что выбранные ранее значения могут измениться в связи с расширением списка доступных для алгоритма признаков. По результатам будет проведена оценка значимости новых признаков. Как и в прошлый раз, в следствие необходимости значительного времени для поиска наилучших параметров, часть из них была выбрана заранее, а в самой работе представлена только часть, отвечающая за выбор оптимального количества решающих деревьев."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Создадим саму модель с зафиксированным сидом\n",
    "clf_feat = GradientBoostingClassifier(random_state=17,\n",
    "                                     subsample = 0.7,\n",
    "                                     max_features = 12,\n",
    "                                     max_depth = 8,\n",
    "                                     learning_rate = 0.1)\n",
    "\n",
    "# Определим словарь параметров, по которому будет происходить отбор признаков\n",
    "grid_params = {'n_estimators':list(range(100, 2101, 200))}\n",
    "\n",
    "# Создадим классификатор для поиска лучших гиперпараметров\n",
    "# Поскольку диапазов гиперпараметров очень широкий, кросс-валидации проходит по 5 складкам\n",
    "# Используем RandomizedSearchCV вместо стандартного GridSearchCV, который проходит по всем вариациям параметров\n",
    "\n",
    "grid_clf_feat = GridSearchCV(clf_feat,\n",
    "                              param_grid=grid_params,\n",
    "                              cv = stratified_cv,\n",
    "                              scoring = 'roc_auc',\n",
    "                              n_jobs = -1)\n",
    "\n",
    "start_time = time.time()\n",
    "\n",
    "# Обучим модель\n",
    "grid_clf_feat.fit(Feature_train_feat, Target_train_feat)\n",
    "\n",
    "end_time = time.time()\n",
    "\n",
    "print('Модель обучилась за %d секунд.'%(end_time-start_time))\n"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Определим наилучшие параметры модели\n",
    "\n",
    "print('Выбранное количество деревьев для новой модели:\\n%s'%grid_clf_feat.best_params_['n_estimators'])\n",
    "\n",
    "# Определим точность модели на кросс-валидации\n",
    "print('На кросс валидации лучший результаты модели составил %.4f'%grid_clf_feat.best_score_)\n",
    "\n",
    "# Определим точность модели на тестовой выборке для ее сравнения с baseline-решением\n",
    "prediction_clf_feat = grid_clf_feat.predict(Feature_test_feat)\n",
    "roc_auc_clf_feat = roc_auc_score(Target_test, prediction_clf_feat)\n",
    "f1_clf_feat = f1_score(Target_test, prediction_clf_feat)\n",
    "print('ROC-AUC метрика полученной модели градиентного бустинга равна на тестовой части %.4f'%roc_auc_clf_feat)\n",
    "print('F1 метрика полученной модели с расширенными признаками равна %.4f'%f1_clf_feat)\n",
    "print('Разница между настроенной моделью с расширенными признаками и baseline по ROC-AUC метрике равна %.4f'%(\n",
    "    roc_auc_clf_feat-roc_auc_base))\n",
    "print('Разница между настроенной моделью с расширенными признаками и baseline по F1 метрике равна %.4f'%(\n",
    "    f1_clf_feat-f1_base))\n",
    "print('Разница между настроенной моделью с расширенными признаками и без них по ROC-AUC метрике равна %.4f'%(\n",
    "    roc_auc_clf_feat-roc_auc_clf))\n",
    "print('Разница между настроенной моделью с расширенными признаками и без них по F1 метрике равна %.4f'%(\n",
    "    f1_clf_feat-f1_clf))\n"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Посмотрим, какие признаки являются для модели определяющими."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "pd.DataFrame({'Feature':Feature_train_feat.columns,\n",
    "             'Importance':grid_clf_feat.best_estimator_.feature_importances_}\n",
    "            ).sort_values('Importance', ascending = False).iloc[:10,]"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Видно, что топе наиболее важных признаков для модели находятся как раз те, которые были получены по результатам feature engineering'a.\n",
    "\n",
    "Подводя итог, можно сделать вывод, что построение новых признаков позволило значительно повысить качество предсказаний модели, увеличив значения точности на несколько процентов, что еще раз говорит о важности применения экспертного знания для извлечения дополнительной информации из уже имеющейся. "
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 10. Построение кривых валидации и обучения\n"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "В данной части будет продемонстрировано графическое отображение процесса обучения модели, а именно зависимость качества предсказания от размера обучающей выборки и количества решающих деревьев. При построении кривых будут использовать результаты полученные по итогу поиска наилучшего количества решающих деревьев на модели с расширенным количеством признаков."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Возьмем стандартную функцию для отрисовки learning_curve с сайта sklearn\n",
    "\n",
    "def plot_learning_curve(estimator, title, X, y, ylim=None, cv=None,\n",
    "                        n_jobs=1, train_sizes=np.linspace(.1, 1.0, 5)):\n",
    "    plt.figure().set_size_inches(18, 10)\n",
    "    plt.title(title)\n",
    "    if ylim is not None:\n",
    "        plt.ylim(*ylim)\n",
    "    plt.xlabel(\"Training examples\")\n",
    "    plt.ylabel(\"Score\")\n",
    "    train_sizes, train_scores, test_scores = learning_curve(\n",
    "        estimator, X, y, cv=cv, n_jobs=n_jobs, train_sizes=train_sizes)\n",
    "    train_scores_mean = np.mean(train_scores, axis=1)\n",
    "    train_scores_std = np.std(train_scores, axis=1)\n",
    "    test_scores_mean = np.mean(test_scores, axis=1)\n",
    "    test_scores_std = np.std(test_scores, axis=1)\n",
    "    plt.grid()\n",
    "\n",
    "    plt.fill_between(train_sizes, train_scores_mean - train_scores_std,\n",
    "                     train_scores_mean + train_scores_std, alpha=0.1,\n",
    "                     color=\"r\")\n",
    "    plt.fill_between(train_sizes, test_scores_mean - test_scores_std,\n",
    "                     test_scores_mean + test_scores_std, alpha=0.1, color=\"g\")\n",
    "    plt.plot(train_sizes, train_scores_mean, 'o-', color=\"r\",\n",
    "             label=\"Training score\")\n",
    "    plt.plot(train_sizes, test_scores_mean, 'o-', color=\"g\",\n",
    "             label=\"Cross-validation score\")\n",
    "\n",
    "    plt.legend(loc=\"best\")\n",
    "    return plt"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Отрисуем learning_curve, чтобы оценить зависимость качества обучения от количества тренировочных данных\n",
    "start_time = time.time()\n",
    "title = \"Learning Curves Gradient boosting with additional features\"\n",
    "plot_learning_curve(grid_clf_feat.best_estimator_, title,\n",
    "                    Feature_train_feat,\n",
    "                    Target_train_feat,\n",
    "                    (0.85, 1.01),\n",
    "                    cv=stratified_cv,\n",
    "                    n_jobs=-1)\n",
    "\n",
    "plt.show()\n",
    "print('Время потраченное на отрисовку составляет %s секунд'%(time.time()-start_time))"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "По результатам полученных кривых можно судить о том, что от количества входной информации качество меняется незначительно. Скорее всего это связано с достаточно простой геологией, которая незначительно меняется в пределах месторождения, а также с стандартным видом всех кривых ГИС, которые ведут себя идиентично во всех скважинах."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Теперь построим валидационную кривую для количества деревьев, используемых классификатором, чтобы определить правильно ли было выбрано их количество и оценить эффект от настройки этого параметра."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "param_range = list(range(100, 2101, 200))\n",
    "train_scores_mean = grid_clf_feat.cv_results_['mean_train_score']\n",
    "train_scores_std = grid_clf_feat.cv_results_['std_train_score']\n",
    "valid_scores_mean = grid_clf_feat.cv_results_['mean_test_score']\n",
    "valid_scores_std = grid_clf_feat.cv_results_['std_test_score']\n",
    "test_scores = []\n",
    "for i in range(100, 2101, 200):\n",
    "    clf_check = GradientBoostingClassifier(random_state=17,\n",
    "                                         subsample = 0.7,\n",
    "                                         max_features = 12,\n",
    "                                         max_depth = 8,\n",
    "                                         learning_rate = 0.1,\n",
    "                                         n_estimators = i)\n",
    "    clf_check.fit(Feature_train_feat, Target_train_feat)\n",
    "    prediction_check = clf_check.predict(Feature_test_feat)\n",
    "    roc_auc_check = roc_auc_score(Target_test, prediction_check)\n",
    "    test_scores.append(roc_auc_check)\n",
    "plt.figure().set_size_inches(18, 10)\n",
    "plt.title(\"Validation Curve with Gradient Boosting\")\n",
    "plt.xlabel(\"Number of estimators\")\n",
    "plt.ylabel(\"ROC-AUC Score\")\n",
    "plt.ylim(0.945, 1.001)\n",
    "plt.xticks(param_range)\n",
    "lw = 2\n",
    "plt.plot(param_range, train_scores_mean, label=\"Training score\",\n",
    "             color=\"darkorange\", lw=lw)\n",
    "plt.fill_between(param_range, train_scores_mean - train_scores_std,\n",
    "                 train_scores_mean + train_scores_std, alpha=0.2,\n",
    "                 color=\"darkorange\", lw=lw)\n",
    "plt.plot(param_range, valid_scores_mean, label=\"Cross-validation score\",\n",
    "             color=\"navy\", lw=lw)\n",
    "plt.fill_between(param_range, valid_scores_mean - valid_scores_std,\n",
    "                 valid_scores_mean + valid_scores_std, alpha=0.2,\n",
    "                 color=\"navy\", lw=lw)\n",
    "plt.plot(param_range, test_scores, label=\"Test score\", color=\"green\", lw=lw)\n",
    "plt.legend(loc=\"best\")\n",
    "plt.show()"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "Можно увидеть, что несмотря на то, что количество деревьев, выбранное алгоритмом, составляет 1700, реально можно было остановиться на количестве 900, так как существует простое правило о том, что при увеличении емкости (сложности) модели, увеличивается вероятность того, что она будет переобучена."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 11. Прогноз для тестовой или отложенной выборки \n",
    "\n",
    "В данном блоке будет произведен прогноз и оценена его точность на выборке, которая изначально была отложена. Не следует путать эту выборку с тестовой частью, которая была \"отрезана\" от обучающей выборки, на которой производилась предыдущая работа и тестировалась baseline-модель."
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Загрузим отложенные данные\n",
    "hold_data = pd.read_csv('../../data/Well_logs_interp_hold.csv')"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Проверем, что в данных нет отсутствующих значений\n",
    "hold_data.info()"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Проверем, что данные находятся в тех же масштабах и диапазонах\n",
    "hold_data.describe()"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Повторим предыдущие шаги из обработки данных чтобы сделать такое же пространство признаков как и ранее\n",
    "hold_featured = hold_data.copy()\n",
    "\n",
    "# Оставим квантили из предыдущего датасета, чтобы одинакого ограничить масштабы кривых\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    quant_95 = train_featured[column].quantile(0.95)\n",
    "    quant_5 = train_featured[column].quantile(0.05)\n",
    "    hold_featured.loc[hold_featured[column] > quant_95, column] = quant_95\n",
    "    hold_featured.loc[hold_featured[column] < quant_5, column] = quant_5\n",
    "\n",
    "# извлечем данные из названий скважин и получим координаты\n",
    "hold_featured['X'] = ([int(i[:3]) for i in hold_featured.Well.values])\n",
    "hold_featured['Y'] = [int(i[-3:]) for i in hold_featured.Well.values]\n",
    "\n",
    "# Добавим физические и геологические признаки\n",
    "# Добавим признак скорости продольной волны в породе\n",
    "hold_featured['P_velocity'] = 1/hold_featured['DT']\n",
    "\n",
    "# Добавим признак акустического импеданса\n",
    "hold_featured['Acoustic_imp'] = hold_featured['DT']*hold_featured['Dens']\n",
    "\n",
    "# Добавим признак пористости по плотностному каротажу, плотность породы возьмем постоянной 2.65, флюида - 1 г/см^3\n",
    "hold_featured['Por_Dens'] = (2.65 - hold_featured['Dens'])/(2.65-1)\n",
    "\n",
    "# Добавим признак пористости по плотностному каротажу, интервальное время пробега в породе - 180\n",
    "# интервальное время пробега во флюиду - 616\n",
    "hold_featured['Por_DT'] = (hold_featured['DT'] - 180)/(616-180)\n",
    "\n",
    "\n",
    "# Добавим математические признаки\n",
    "# Добавим степенные кривые и логарифм\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    hold_featured['%s^2'%column] = hold_featured[column]*hold_featured[column]\n",
    "    hold_featured['%s^3'%column] = hold_featured[column]*hold_featured[column]*hold_featured[column]\n",
    "    if column != 'SP':\n",
    "        hold_featured['Log_%s'%column] = np.log(hold_featured[column])\n",
    "    \n",
    "# Добавим производную, стоит отметить, что ее следует считать индивидуально для каждой скважины\n",
    "for column in ['SP', 'GR', 'DT', 'Dens']:\n",
    "    hold_featured['%s_gradient'%column] = 0\n",
    "    for well in hold_featured.Well.unique():\n",
    "        hold_featured.loc[hold_featured.Well == well,\n",
    "                           '%s_gradient'%column] = np.gradient(hold_featured.loc[hold_featured.Well == well,\n",
    "                                                                                  column], 0.1)\n",
    "\n",
    "# Разобьем данные на тренировочную и hold-out выборку по скважинам\n",
    "train_test = 0.7\n",
    "rd.seed(17)\n",
    "\n",
    "\n",
    "# Разобьем полученные выборки на матрицу признаков и вектор ответов\n",
    "Feature_hold = hold_featured.drop(['Well', 'DEPT', 'Litho'], axis = 1)\n",
    "Target_hold = hold_featured['Litho']"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": [
    "# Предскажим данные тестовой части и посчитаем метрики\n",
    "predict_hold = grid_clf_feat.predict(Feature_hold)\n",
    "f1_hold = f1_score(Target_hold, predict_hold)\n",
    "roc_auc_hold = roc_auc_score(Target_hold, predict_hold)\n",
    "\n",
    "print('ROC-AUC метрика по отложенной части равна %.4f'%roc_auc_hold)\n",
    "print('F1 метрика по отложенной части равна %.4f'%f1_hold)\n",
    "print('Разница между предсказаниями на отложенной и тестовой частью по ROC-AUC метрике равна %.4f'%(\n",
    "    roc_auc_hold - roc_auc_clf_feat))\n",
    "print('Разница между предсказаниями на отложенной и тестовой частью по F1 метрике равна %.4f'%(\n",
    "    f1_hold - f1_clf_feat))"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "На отложенной части модель показала результаты на том же уровне, которые были получены по результатм опробования на тестовом сете. Это позволяет сделать заключение о хорошей обобщающей способности модели и отсутствии переобучения на имеющемся тренировочном наборе."
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 12. Выводы\n",
    "\n",
    "Основной целью данной работы являлась разработка подхода по автоматической интерпретации данных геофизических исследований скважин на основе алгоритмов машинного обучения.\n"
   ]
  },
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "В ходе работы решались следующие задачи:\n",
    "- **Анализ и предобработка имеющихся данных**\n",
    "- **Извлечение дополнительной информации из имеющихся данных**\n",
    "- **Выбор метрики качества**\n",
    "- **Обучение и настройка модели**\n",
    "- **Проверка модели на отложенной выборке**\n",
    "\n",
    "Все поставленные задачи были выполнены, в качестве итога была разработан алгоритм выделения песчанника. Полученная в результате работы модель позволяет с высокой долей уверенности проводить автоматическую интерпретацию каротажных кривых. Ее ценность заключается в том, что она может быть использована в качестве помощника для геолога или петрофизика при выполнении рутинной работы по выделению литологии, что значительно сокращает требуемое на работу время.\n",
    "#### Дальнейшие исследования\n",
    "В дальнейшем можно попробовать использовать более сложные модели для проверки их качества. Одним из направлений работ может быть построение дополнительных кривых по уже имеющимся, поскольку, как было показано в исследовании, дополнительные признаки дают значительный прирост в качестве прогноза. Например, таким признаком может быть геостатистический разрез, который используется в процессе геологического моделирования."
   ]
  }
 ],
 "metadata": {
  "kernelspec": {
   "display_name": "Python 3",
   "language": "python",
   "name": "python3"
  },
  "language_info": {
   "codemirror_mode": {
    "name": "ipython",
    "version": 3
   },
   "file_extension": ".py",
   "mimetype": "text/x-python",
   "name": "python",
   "nbconvert_exporter": "python",
   "pygments_lexer": "ipython3",
   "version": "3.6.4"
  }
 },
 "nbformat": 4,
 "nbformat_minor": 2
}
