Объяснимо А. И.: руководство для приготовления черного ящика машинного обучения моделей объяснимо

Robotics in the enterprise

Робототехника на предприятии

Роботы двинулись на конвейере и на складах, офисах, больницах, магазинах, и даже в наши дома. Мир исследует, как взрывной рост в области робототехники, влияющие на конкретных отраслях, таких как здравоохранение и организация, и предприятия в более широком плане такие вопросы, как наем и безопасность на рабочем месте.

Подробнее

Но машинного обучения (ML), который многие люди смешивают с более широкими вопросами искусственного интеллекта (ИИ), не обошлось и без вопросов. Мл произведения кормления исторических реальных данных для алгоритмов, используемых для обучения модели. Затем модели ML можно подавать новые данные и выдавать результаты в проценты, исходя из исторических данных, используемых для обучения модели.

Типичный пример-это диагностика заболеваний. Модели ML могут быть получены с использованием данных, таких как рентгеновские лучи и КТ-сканирование, а затем напитаться новыми данными и попросили определить, является ли заболевание или нет. В таких ситуациях, однако, получив результат, не достаточно: мы должны знать объяснение позади него, и это, где это становится сложнее.

Объяснимо ИИ

Кристоф Мольнар ученый данных и кандидат наук в интерпретации машинного обучения. Молнар написал книгу «интерпретируемых машинное обучение: руководство для создания модели черного ящика объяснимо», в котором он подробно разъясняет этот вопрос и изучает методы достижения explainability.

Мольнар использует термины, интерпретируемые как взаимозаменяемые и объяснимо. Несмотря на ИИ/мл слияние, это хорошее введение, чтобы объяснить ИИ и как туда добраться. Хорошо проработанный и доступный, книга дает хороший обзор для экспертов и не-экспертов. Пока мы подводим результаты здесь, мы призываем заинтересованных читателей к погружению в себя.

Интерпретируемость может быть определена как степень, в которой человек может понять причину того или иного решения, или в какой степени человек может последовательно предсказать результат в мл модели. Чем выше интерпретируемость модели, тем легче понять, почему некоторые решения или прогнозы были сделаны.

xai-book.jpg

Кристоф Мольнар ученый данных и кандидат наук в интерпретации машинного обучения. В книге «интерпретируемых машинное обучение: руководство для приготовления черного ящика модели объяснимо» он подробно разъясняет этот вопрос и изучает методы достижения explainability

Нет реального консенсуса о том, что интерпретируемость в МЛ, и это понятно, как его измерять, отмечает Мольнар. Но есть некоторые исследования по этому и попытка сформулировать некоторые подходы к оценке. Три основных уровня оценки интерпретируемости были предложены:

Применение оценки (реальная задача): поставить объяснение в изделие и проверка конечного пользователя. Оценки программного обеспечения, обнаружения трещин с мл компонента для примера можно привести работу радиологов тестирования программного обеспечения напрямую, чтобы оценить модель. Хорошей основой для этого всегда, как хороший человек может быть на разъяснение решения.

Человека уровень оценки (простая задача) представляет собой упрощенное приложение уровень оценки. Разница в том, что эти эксперименты проводятся с мирянами, а не специалисты в предметной области. Это делает эксперименты дешевле и легче найти еще тестеры. Примером будет показывать пользователю разные объяснения и пользователь может выбрать лучший из них.

Функция оценки уровня (прокси-задания) не требуют людей. Это работает лучше всего, когда класс моделей используется уже оценены кем-то другим в оценке уровня человека. Например, это может быть известно, что конечные пользователи понимают, деревья решений. Прокси для качества можно объяснить глубины дерева: короче, деревья бы получить лучший результат explainability.

Мольнар включает в себя множество методов для достижения интерпретируемости, однако, отметить, что большинство из них предназначены для интерпретации моделей для табличных данных. Изображения и текстовые данные требуют разных методов.

Сфера интерпретируемости

Как мл железнодорожных моделей алгоритмов, которые производят прогнозы, каждый шаг может быть оценен с точки зрения прозрачности и интерпретируемости. Мольнар различает прозрачность алгоритма, глобальная целостная модель интерпретируемости, глобальная модель интерпретируемость на модульном уровне, местные интерпретируемости одного предсказания, и местные интерпретируемости для группы прогнозов.

Прозрачность алгоритм о том, как алгоритм узнает, модели данных и какие отношения он может узнать. Понимание того, как алгоритм работает, совсем не обязательно предоставлять выводы для конкретной модели алгоритм генерирует, или отдельные прогнозы. Прозрачность алгоритма требует лишь знания алгоритма, а не данных или извлеченных модели.

Глобальная целостная модель интерпретируемость означает, постигая всю модель сразу. Речь идет о понимании как модель принимает решения, опираясь на целостное представление о его особенности и все научились такие компоненты, как вес, другие параметры и структуры. Объясняя мирового производства модель требует обученной модели, знания алгоритма и данных.

ai robot thinkingai robot thinking

Интерпретируемость является одним из ключевых элементов искусственного интеллекта


Гетти Изображений/эксклюзив

В то время как глобальная модель интерпретируемости обычно вне досягаемости, есть хорошие шансы на понимание хоть какой модели на модульном уровне, Мольнар Примечания. Не все модели, интерпретируемые на уровне параметра, но мы все еще можем спросить, как сделать, детали модели влияют на прогнозы. Мольнар используются линейные модели, в качестве примера, для которых вес имеет смысл только в контексте других элементов в модели.

Почему модель сделать определенное предсказание для экземпляра? Это к вопросу, что и определяет местные интерпретируемости одного предсказания. Глядя на индивидуальных прогнозов, поведение иное сложными моделями может быть проще объяснить. Локально, прогноз может зависеть линейно и монотонно на некоторые особенности, нежели имеющих сложную зависимость от них.

Аналогичным образом, местные интерпретируемости для группы прогнозов насчет ответа, почему модели сделаны конкретные прогнозы для группы экземпляров. Модель предсказания для нескольких экземпляров можно объяснить либо с помощью глобальной модели, методы интерпретации (на модульном уровне) или с объяснениями отдельных экземпляров.

Глобальные методы можно применить, принимая группу событий, рассматривая их, как если бы группа была полной базой данных, и используя глобальные методы с этим подмножеством. Отдельные методы объяснения могут быть использованы на каждом экземпляре, а затем перечисляются и суммируются для всей группы.

Интерпретируемые модели и модели-Агностических методов

Самый простой способ для достижения интерпретируемости, так как в соответствии Мольнар использовать только подмножество алгоритмов, которые создают интерпретируемых моделей. Линейная регрессия, логистическая регрессия и деревья решений обычно используются интерпретируемые модели включены в Книгу. Правила принятия решений, RuleFit, упрощенного алгоритма Байеса и k-ближайших соседей, которая единственная не интерпретируется на модульном уровне, также включены.

Мольнар обобщает интерпретируемых типов моделей и их свойства. Модель является линейной, если связь между объектами и цели моделируется линейно. Модель с ограничениями монотонности гарантирует, что отношения между объектом и целевой результат всегда идет в одном направлении во всем диапазоне функция: увеличение добавленной стоимости всегда приводит к повышению или к снижению конечного результата, что делает его легче понять.

Некоторые модели могут автоматически включать взаимодействие между объектами прогнозирования конечного результата. Взаимодействия могут быть включены в любой тип модели, ручное создание объектов взаимодействия. Взаимодействие может повысить прогностическую эффективность, но слишком много или слишком сложного взаимодействия могут навредить интерпретируемости. Некоторые модели ручка только регресс, только некоторые классификации, в то время как другие могут обрабатывать оба.

opera-snapshot-2020-08-06-135718-christophm-github-io.pngopera-snapshot-2020-08-06-135718-christophm-github-io.png

Интерпретируемые модели машинного обучения и их свойства. Изображения: Кристоф Мольнар

Есть, однако потенциальные недостатки в использовании интерпретируемых моделей исключительно: прогнозная производительность может быть ниже по сравнению с другими моделями, и пользователи ограничивать себя в один тип модели. Одной из альтернатив является использование модельно-специфические методы толкования, но также привязывает пользователей к одному типу модели, и может быть сложно переключиться на что то другое.

Другой альтернативой является модель-агностик методы интерпретации, т. е. отделять объяснения от модели ML. Их большим преимуществом является гибкость. Разработчики могут использовать любую модель им нравится, и все, что строит на интерпретационной модели, такие как пользовательский интерфейс, также становится независимыми от базовой модели мл.

Обычно многие типы моделей мл оценены, чтобы решить задачу. При сравнении моделей с точки зрения интерпретируемости, работая с моделью, не зависящим от объяснений легче, потому что один и тот же метод может быть использован для любого типа модели, отмечает Мольнар. Модели, объяснение и гибкость представлений желаемых свойств модели-агностик системы объяснения.

Методы в книгу включены частичную зависимость участков, индивидуальных условное математическое ожидание, накопленные локальные эффекты, характеристика взаимодействия, функция перестановки слагаемых значение, глобальный суррогат, местным суррогатом, якоря, значения Шепли и ШАП.

Будущее интерпретируемости

Забронировать Мольнар также на основе примеров рассмотрены пояснения, которые работают на выборе конкретных экземпляров набора данных, чтобы объяснить модель поведения или распределения данных. Это в основном модели-агностик, так как они делают любую модель более понятной. Пример на основе объяснения имеют смысл только если мы можем представить экземпляр данных в по-человечески понятный способ, который работает хорошо для изображений.

См. также

  • Телемедицина, ИИ, и глубокое изучение революцию в области здравоохранения (бесплатный PDF)

Насколько глубокие нейронные сети идти, Молнар отмечает, используя модель-агностических методов можно. Однако, есть две причины, почему используя методы толкования, разработанные специально для нейронных сетей имеет смысл: во-первых, нейронные сети, узнать особенности и концепции в их скрытых слоев, поэтому требуется специальный инструмент, чтобы раскрыть их. Во-вторых, градиент могут быть использованы для реализации методов интерпретации более вычислительно эффективным, чем модель-агностических методов.

Молнар делает вывод, предлагая свои прогнозы на будущее интерпретируемости. Он считает, что упор будет сделан на модели-агностик инструменты интерпретируемости, так как это гораздо проще автоматизировать интерпретируемости, когда он отсоединяется от базовой модели мл. Автоматизация-это уже происходит в МЛ, и Мольнар видит эту тенденцию продолжить и расширить, чтобы включить не только интерпретируемости, а также научных данных работ.

Молнар отмечает, что многие аналитические инструменты уже на основе модели данных, и переход от анализа предположение на основе прозрачной модели для анализа предположение-бесплатные модели черного ящика является неизбежным. Используя предположение-бесплатные модели черного ящика имеет свои преимущества, отмечает он, и добавление интерпретируемость может быть способ, чтобы иметь лучшее из обоих миров.

В будущем интерпретируемости, роботов и программ будет объяснить себя, и интерпретируемость может повышение интеллекта. Знакомство с основами объяснимо ИИ это хороший способ, чтобы получить там, и забронировать Молнар является хорошим местом для начала.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *