Пусть — множество причин (входов) и — множество результатов. Если — функция из в интервал ,
и — нечеткая мера на , то
где .
Задача состоит в оценке (уточнении) причин по нечеткой информации.
Пусть — нечеткая мера на , связана с условной нечеткой мерой :
Предполагается следующая интерпретация вводимых мер: оценивает степень нечеткости утверждения "один из элементов был причиной", , оценивает степень нечеткости утверждения "один из элементов является результатом благодаря причине "; характеризует степень нечеткости утверждения: " — действительный результат".
Пусть описывает точность информации , тогда по определению .
Метод обучения должен соответствовать обязательному условию: при получении информации нечеткая мера меняется таким образом, чтобы
возрастала. Предположим, что и
удовлетворяют -правилу. Пусть
является убывающей, тогда
где . При этих условиях существует :
Обучение может быть осуществлено увеличением тех значений () нечеткой меры , которые увеличивают , и уменьшением тех значений () меры , которые не увеличивают . Можно показать, что на величину влияют только такие , что . Следовательно, нечеткий алгоритм обучения следующий:
Параметр регулирует скорость обучения, т.е. скорость сходимости . Чем меньше , тем сильнее изменяется . В приведенном алгоритме нет необходимости увеличивать больше, чем на , так как большое увеличение не влияет на . Приведем некоторые свойства модели обучения.
Свойство 1.
Если повторно поступает одна и та же информация, то происходит следующее:
a. новое больше старого () и новое
меньше старого (), следовательно, новая мера не меньше старой меры , и новая мера
b. при предположении , ,
сходится к и сходится к 0 для .
Свойство 2.
Если поступает одна и та же информация повторно: для всех , то .
Следовательно, и сходится к для всех .
Свойство 3. Предельное значение не зависит от начального значения тогда, когда на вход повторно поступает одна и та же информация.
Пример.
Рассмотрим модель глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами.
Для поиска глобального экстремума формируются критерии в виде некоторых функций:
— оценивает число точек, проанализированных на предыдущих шагах;
— оценивает среднее значение функции по результатам предыдущих шагов;
— оценивает число точек, значение функции в которых принадлежит десятке лучших в своей области;
— оценивает максимум по прошлым попыткам;
— оценивает градиент функции.
В описанном случае показывает степень важности подмножеств критериев и оценивает предположение о нахождении экстремума в блоке в соответствии с критерием . Например,
может зависеть от числа ранее проанализированных точек в блоке . Пусть входная информация определяется формулой
где — максимум анализируемой функции, найденный к рассматриваемому моменту в блоке . Очевидно, что сходится к максимизирующему множеству функции. На каждой итерации осуществляется следующее: проверяется заданное число новых точек; число этих точек выбирается пропорционально ; в~каждой точке вычисляется и нормализуется мера ); нормализуется ; по и вычисляется , а затем ; посредством правил подкрепления корректируется . Затем выполняется новая итерация, и так до тех пор, пока не сойдется