Шрифт:
2. Проблема оправдания
При заполнении памяти интеллектуальных систем знаниями, полученными от экспертов, хорошо знающих данную предметную область и способы решения возникающих в ней задач, инженеры по знаниям столкнулись с одной весьма любопытной особенностью. При объединении баз знаний, сформированных различными экспертами, каждая из которых в отдельности довольно успешно решала тестовые задачи, возникала противоречивая база знаний. Если это были базы, в которых знания фиксировались в виде продукционных правил, то возникали правила с одинаковыми левыми частями и противоречащими друг другу правыми частями, а если в качестве модели представления знаний использовались фреймы, то отмечалось несовпадение фреймов-прототипов или возникали конкурирующие значения в слотах.
Как скоро стало очевидным, явление это объяснилось тем, что эксперты погружали свои профессиональные знания в некоторые концептуальные модели предметных областей, которые могли не совпадать у разных экспертов. Если, например, речь шла об извлечении знаний из области онкологических заболеваний, то в качестве таких различных моделей могли выступать вирусная или генетическая модель порождения злокачественных опухолей. Если же речь шла о добыче нефти и поиске наиболее перспективных мест для ее разведки, то альтернативными концептуальными моделями оказывались модели органического и неорганического происхождения нефти. Приверженцы той или иной концептуальной модели сознательно (а иногда подсознательно) отбирали только те знания, которые согласовывались с принятой концептуальной моделью, отвергая те знания, которые ей противоречили (или, преуменьшая их вес правдоподобия). Другими словами, использовался своеобразный механизм «психологической защиты» от знаний, разрушающих принятую концептуальную модель, которая оправдывалась принятой системой знаний.
Ясно, что механизмы оправдания, связанные с искажением весов правдоподобия, накопленных в данной предметной области знаний (включая и отторжение некоторых знаний), нужно изучать и учитывать при заполнении баз знаний и их объединении. Но как это делать? Вопрос остается открытым и сейчас. В ближайшее десятилетие на него надо найти конструктивный ответ, иначе интеллектуальные системы в своем развитии не сделают следующего важного шага.
3. Порождение объяснений.
Различие в механизмах поиска решений у человека, специалиста по решению определенного класса задач и у интеллектуальной системы приводит к появлению эффекта непонимания. Видя окончательный результат деятельности интеллектуальной системы, специалист не может оценить степень его достоверности (даже если система одновременно с решением выдает вычисленную ею такую оценку). Процесс «верить – не верить» не может привести к какому-либо разумному результату, если нет какой-то дополнительной информации. Эта информация, начиная с первого поколения экспертных систем, выдается специалисту по его требованию в виде объяснения.
Объяснение (более точно было бы говорить об обосновании, но термин «объяснение» прочно прижился в искусственном интеллекте) может быть различным. Наиболее распространены как-объяснения и почему-объяснения. При как-объяснении система выдает пользователю информацию о процедуре получения решения, например, выдает ему всю трассу движения по дереву вывода. При почему-объяснении система включает в текст объяснения те основания, которые были использованы ею в процессе поиска решения. Другие типы объяснений (что-объяснения, зачем-объяснения и т.п.) пока в интеллектуальных системах практически не используются.
Проблема объяснения связана с решением задачи о том, как его построить. В начальный период развития экспертных систем объяснение порождалось жесткими процедурами, связанными с наличием априорно заданного сценария объяснения, заполняемого конкретными сведениями в процессе поиска решения. Такой подход в какой-то мере годится для как-объяснений и несколько хуже подходит для почему-объяснений. Но он совершенно непригоден при необходимости порождения объяснений иных типов.
Ясно, что проблема генерации объяснений связана с наличием в памяти интеллектуальной системы концептуальных моделей предметных областей и энциклопедических знаний об особенностях этих областей. Для порождения объяснений нужны базы знаний энциклопедического типа.
Энциклопедические базы знаний отличны по своей структуре и назначению от проблемно-ориентированных баз знаний, применяемых в современных экспертных и других интеллектуальных системах. Организация знаний в энциклопедических базах, механизмы порождения текстов по запросам к ним требуют решения ряда проблем, относящихся к форме представления знаний в таких базах и принципам построения системы отношений на хранимых в них знаниях.
С середины 80-х годов начали выполняться первые проекты, связанные с созданием энциклопедических баз знаний и развитием их теории. Без накопления новых результатов в этом направлении процесс совершенствования интеллектуальных систем и снятия барьера непонимания между ними и пользователями-людьми будет вряд ли возможным.
4. Поиск релевантных знаний.
Базы знаний в интеллектуальных системах используются в самых различных процедурах, связанных с вводом знаний, преобразованием и использованием их для поиска решений. Все эти процедуры требуют наличия механизмов, которые позволяли бы по тексту запроса к базе знаний найти в базе именно те знания, которые понадобятся для получения ответа.
В отличие от баз данных, для которых механизмы поиска ответов на запросы достаточно хорошо изучены (хотя и тут еще имеется немало нерешенных задач, являющихся для специалистов «твердыми орешками»), соответствующие проблемы для баз знаний пока еще далеки от каких-либо эффективных решений. Известно, что основным механизмом реализации процедур поиска в базах знаний служит поиск по образцу, являющийся своеобразным видом ассоциативного поиска.