Введение 3
Глава 1. Кооперативные ТП-игры 5
Глава 2. Локальная интерпретация 7
Глава 3. Построение игровой модели локальной интерпретации 10
Глава 4. Модель глобальной интерпретации 13
Глава 5. Детали реализации 18
5.1. Модель 18
5.2. Интерпретация модели 19
Заключение 27
Список литературы 28
Машинное обучение все чаще применяется в самых разных сферах жизни для решения задач прогнозирования, классификации и разработки рекомендательных систем. Одним из основных препятствий для широкого распространения машинного обучения является компромисс между интерпретируемостью и сложностью алгоритма. Чем сложнее внутренняя структура модели, тем более глубокие взаимосвязи между переменными она может находить, но и тем труднее она становится для понимания людьми.
Понимание того, какие переменные и каким образом влияют на работу модели, может помочь идентифицировать потенциальные проблемы в ней и дать информацию о том, какие еще переменные можно туда добавить, чтобы улучшить качество предсказания, а какие стоит из нее исключить, чтобы оптимизировать использование ресурсов.
Необходимость интерпретировать предсказания моделей возникла в силу многих причин.
Широкое использование моделей машинного обучения в таких отраслях, как медицина, финансы и политика породило требования к безопасности модели, обоснованию доверия ей, а также привело к существованию различных правил, регламентирующих работу автоматизированных систем принятия решений. Так с 2018 года в Европейском союзе начал действовать новый регламент о защите данных — General Data Protection Regulation (GDPR), одна из статей которого гласит, что каждый субъект данных имеет право на получение информации о том, почему автоматизированная система приняла то или иное решение.
Также интерпретация моделей тесно связана с классом задач состязательных атак, целью которых является построение такого входа для алгоритма машинного обучения, на котором алгоритм бы сделал ошибку.
Глобальные методы интерпретации призваны показать, какие факторы в целом оказывают наибольшее влияние на структуру модели и на ее предсказания.
Локальные методы пытаются объяснить то, как было сделано данное конкретное предсказание (например, отказ в выдаче кредита клиенту). Зачастую локальные методы могут быть использованы как основа для более глобальной интерпретации, например, путем усреднения или визуализации.
Целью данной работы является рассмотрение локальных и глобальных методов интерпретации моделей машинного обучения, основанных на построении игровой модели, программная реализация выявленных подходов и иллюстрация применения на конкретной модели машинного обучения
В рамках данной работы были рассмотрены локальные и глобальные методы интерпретации моделей машинного обучения, универсальность которых заключается в том, что они не зависят от выбора модели.
Для класса методов с аддитивными значимостями признаков была формализована кооперативная игра и выведены значимости признаков как компоненты вектора Шепли.
Была произведена программная реализация выявленных подходов, основывающихся как на разложении локальных прогнозов модели, так и на разложении общей точности предсказания модели. Было проиллюстрировано на конкретной модели машинного обучения применение двух методов глобальной интерпретации, первый из которых основан на суммировании абсолютных значений локальных значимостей (описан в Главе 3), а второй основан на разложении с использованием зоноидов Лоренца (описан в Главе 4).
[1] Акимов, W. Kerby. Значения для кооперативных игр. Обобщение теоремы единственности Шепли.// Искусственный интеллект и принятие решений, №4. 2010. C. 77-80.
[2] Aas K., Jullum M.,// Anders Lpland Explaining individual predictions when features are dependent: More accurate approximations to Shapley values.
[3] Giudici, P., Raffinetti, E.// Shapley-Lorenz Decompositions in eXplainable Artificial Intelligence (2020).
[4] Giudici, P., Raffinetti, E. //Lorenz Model Selection. J Classif 37, 754-768 (2020).
[5] Giudici, P., Raffinetti, E.// Shapley-Lorenz eXplainable Artificial Intelligence, (2021).
[6] Koshevoy, G., Mosler, K.// Multivariate Lorenz dominance based on zonoids . AStA 91, 57-76 (2007).
[7] Lundberg, S. M. and Lee, S.-I.// A unified approach to interpreting model predictions. In Advances in Neural Information Processing Systems, pp. 4765-4774, 2017.
[8] Merrick L., Taly A. // The Explanation Game: Explaining Machine Learning Models Using Shapley Values.
[9] Scott M. Lundberg, Gabriel Erion, Hugh Chen, Alex DeGrave, Jordan M. Prutkin, Bala Nair, Ronit Katz, Jonathan Himmelfarb, Nisha Bansal, Su-In Lee// Explainable AI for Trees: From Local Explanations to Global
Understanding, с.64, (2020).
[10] Shapley LS // A value forn-person games. In: Kuhn HW, Tucker AW(eds) Contributions to the Theory of Games II, Annals of MathematicsStudies, vol 28, Princeton University Press, Princeton, pp 307-317, (1953).
[11] Shrikumar A., Greenside P., // Anshul Kundaje Learning Important Features Through Propagating Activation Differences, (2019).
[12] Shrikumar, A., Greenside, P., Shcherbina, A. & Kundaje, A.// Not just a black box: learning important features through propagating activation differences, (2016).
[13] Strumbelj E., Kononenko I.// An efficient explanation of individual classifications using game theory //The Journal of Machine Learning Research. - 2010. - Т. 11. - С. 1-18.