- 24.09.2020
- 25.08.2024
- выступления
- #interpretable_ML
На Датафесте 2020 обсуждали новости Interpretable ML. Страница трека
Краткое содержание:
- Shap и Lime перестали быть магией и встроены в каждую кофеварку (и их все равно никто не понимает)
- Большие и маленькие вендоры делают autoML с объяснением.
- Много хороших инструментов для обучения на примерах.
- Нейронки, наконец, догнали таблички. Скоро эмбеддинги подтянутся.
- Похоже, мы делали все это время не то, но все будет хорошо.
Подробнее:
В дело включились большие вендоры.
- Microsoft: responsible-ml и machine-learning-interpretability
- Understand machine learning models
- Interpret and explain model behavior
- Assess and mitigate model unfairness
- Protect people and their data
- Prevent data exposure with differential privacy
- Work with encrypted data using homomorphic encryption
- Control the end-to-end machine learning process
- Document the machine learning lifecycle with datasheets
- Все это идет в opensource
- interpretml
- DiCE Ищет контрпримеры для TF или PyTorch моделей. scikit-learn обещали впилить. По наводке @tEarth - можно взять https://github.com/microsoft/hummingbird и сконвертировать модель в PyTorch
- https://www.microsoft.com/en-us/research/blog/open-source-library-provides-explanation-for-machine-learning-through-diverse-counterfactuals/
- https://www.microsoft.com/en-us/research/publication/explaining-machine-learning-classifiers-through-diverse-counterfactual-examples/
- https://www.microsoft.com/en-us/research/blog/open-source-library-provides-explanation-for-machine-learning-through-diverse-counterfactuals/
- https://github.com/interpretml/DiCE/blob/master/docs/source/notebooks/DiCE_getting_started.ipynb
- Объяснимый градиентный бустинг на основе GAM. Вроде как не до конца градиентный и не до конца бустинг, но это детали ;-)
- https://github.com/interpretml/interpret-text и даже Берт они умеют объяснять
- Understand machine learning models
- Google
- https://cloud.google.com/explainable-ai
- https://cloud.google.com/ai-platform/prediction/docs/ai-explanations/overview
- https://cloud.google.com/blog/products/ai-machine-learning/explaining-model-predictions-on-image-data
- Facebook
- https://captum.ai/ - объяснение PyTorch моделей
- https://captum.ai/docs/captum_insights
- https://captum.ai/docs/algorithms
- Fiddler Lab - 2018, партнеры с Facebook, "правильно объяснимый AutoML"
- https://www.fiddler.ai/explainable-ai
- https://blog.fiddler.ai/2020/09/ai-explained-video-series/
- IBM - в принципе, старый инструмент, но они его развивают
- http://aix360.mybluemix.net/
- AWS
- Внутри SageMaker - Shap https://aws.amazon.com/ru/blogs/machine-learning/ml-explainability-with- amazon-sagemaker-debugger/
- В маркетплейсе куча решений про Explainable AI https://aws.amazon.com/marketplace/search/results?x=0&y=0&searchTerms=Explainable+AI
- DataRobots
-
И даже SAP
-
@tEarth обратил внимание на опасность SHAP - бездумное использование инструмента вредно, и вообще в SHAP есть свои проблемы.
-
На distill.pub много интересных визуализаций внутренностей сетей
-
Interpretable-диссиденты:
- "Треп Себранта": Требовать от ML интерпретируемости - то же самое, что требовать идти с флагом перед автомобилем
- https://t.me/techsparks/1931 "Очень полезная напоминалка тем, кто настойчиво требует интерпретируемости от моделей машинного обучения, ссылаясь на то, что наш мир якобы основан на понимании. Я обычно ссылаюсь на всякие неустойчивости, хаос и квантовую физику, но здесь примеры получше: фармацевтика. Для кучи современных лекарств есть клиническая практика, но нет четкого понимания, как они работают. Да что там современных: аспирин применяют с конца XIX века, а точное описание механизма действия получено в 1995 году, до этого целый век как-то обходились. Но накопление правильных ответов без понимания причин их правильности может плохо кончиться - фундаментальная наука все-таки нужна: и эту заметку очень интересно читать до самого финала." https://www.newyorker.com/tech/annals-of-technology/the-hidden-costs-of-automated-thinking
- Не то чтобы она новая https://arxiv.org/abs/1811.10154 - завязывайте уже интерпретировать, делайте модели нормальные
-
Интересные статьи:
- http://www-personal.umich.edu/~harmank/Papers/CHI2020_Interpretability.pdf
- https://arxiv.org/abs/2001.07645 SAUNet: Shape Attentive U-Net for Interpretable Medical Image Segmentation Code: https://github.com/sunjesse/shape-attentive-unet.
- @artgor https://opendatascience.slack.com/archives/C5VQ222UX/p1579862101028000 "Главная идея: разнообразные CNN хорошо работают для сегментации, в том числе медицинских картинок. Но у них не хватает робастности и интерпретируемости. Одна из причин этого - CNN обычно учат текстуру картинок, а не форму объектов. Стандартные подходы к интерптерации - gradient-based saliency методы. Но обычно это требует дополнительные вычисления и не всегда достаточно хорошо интерпретируется. В предлагаемой архитектуре берется :unet: и добавляет второй поток данных, в который подаётся информация о форме объектов. Ещё они используют dual-attention decoder, и именно он даёт интерпретируемость без дополнительных вычислений после инференса."
- https://exbert.net/ - и Берт тоже объясним
-
Интересные репозитории:
- https://github.com/interpretml
- https://github.com/SeldonIO/alibi
- https://github.com/ModelOriented
-
Прямо сейчас разбираю:
- https://slideslive.com/38930831/explainable-artificial-intelligence-via-representer-points-infidelities