Рассылка закрыта
При закрытии подписчики были переданы в рассылку "Технологии анализа данных" на которую и рекомендуем вам подписаться.
Вы можете найти рассылки сходной тематики в Каталоге рассылок.
Технологии обработки данных в прогнозировании
Информационный Канал Subscribe.Ru |
Выпуск 24. МГУА (часть 3) В рассылке представлены аналитические материалы как лично мои так и те, которые будут присылаться, а также информация, полученная из других источников. Будут указаны ссылки на литературу. Список литературных и электронных источников находится на сайте (здесь). При возможности там же будут указаны и адреса. На вопросы буду отвечать лично, или включать их в рассылку, или помещать в раздел "Вопросы и ответы" на сайте. Разные рассылки будут ориентированы на разный уровень читателей. Так что не огорчайтесь, если текст станет для Вас слишком легким, или совсем непонятным. Возможно cледующий материал будет специально для Вас. Ну вот и все. Приступаем! | ||
Предыдущие выпуски |
||
|
||
Здравствуйте! Ваши вопросы и, возможно, ответы на них в соответствующем разделе сайта (здесь>>). Здесь>> можно посмотреть результат роботы программного модуля "Alternative_Simplex", предназначенного для решения задачи линейного программирования. Отличие от систем-аналогов в том, что для задачи ЛП полностью приводится алгоритм и результаты решения симплекс-методом.
Сегодня выпуск полностью в формате html. Выпуск необычный и построен в режиме диалога-интервью с Григорием Ивахненко, за что я ему очень признателен. Г.И. Так как Вы планируете выпустить выпуск посвященный МГУА позвольте высказать свои пожелания. Может они пригодятся. В целом мне кажется, что не так важны детали метода, способы деления выборки, критерии как описание оригинального индуктивного подхода к моделированию. В.С. Возражаю, так как рассылка ориентирована на изложение методов, предназначенных для прогнозирования. Поэтому главным для подписчиков есть указание на конструктивные решения и способы их получения. Что касается парадигмы МГУА, то она интересна и в многочисленной уже литературе (в т.ч. в И-те) отображена. Г.И. Ок. Неплохо бы там дать ссылку на http://www.gmdh.net/gmdh.htm В частности перебор функций разного вида, свобода выбора и оценка моделей на новой неиспользованной подвыборке дает возможность, независимо от предположений автора моделирования, находить законы верные для всех последующих выборок.Я высылаю еще один файл с небольшим описанием. В.С.
Спасибо, сразу же его привожу. Одно
замечание. Верность любого утверждения
должна быть доказана аналитически, или
подтверждена Г.И.
Knowledge Mining c помощью
МГУА будет посвящена книга с проф.Мюллером
- она выйдет в следующем году и там будет
много примеров, как и в предыдущей книге
Johann-Adolf Mueller and Frank Lemke 'Self-Organising Data Mining. An
Intelligent Approach To Extract Knowledge From Data'.
Да именно критерии
согласованности (критерий
непротиворечивости) на _неиспользованных_
(внешних) данных позволяют находить
долгосрочные прогнозы и находить
физические законы и кластеризации. Одна из
последних статей
посвященных открытию физических законов с
помощью МГУА - задача отыскания
структуры металла для ракет.
A.G.Ivakhnenko, E.A.Savchenko, G. A.Ivakhnenko
A.B.Nadiradze, A.O.Rogov Inductive Method Permitting to Choose Model
With Least Error and Least Bias Allowing The Solve Interpolation Tasks of
Artificial Intelligence выставлена на http://www.gmdh.net/articles
Содержимое файла.
Метод Группового Учета Аргументов состоит
из нескольких алгоритмов для решения
разных задач. В него входят как
параметрические, так и алгоритмы
кластеризации, комплексирования аналогов,
ребинаризации и вероятностные алгоритмы.
Этот подход самоорганизации основан на
переборе постепенно усложняющихся моделей
и выборе наилучшего решения согласно
минимуму внешнего Г.И. Минимум внешнего критерия указывает как оптимальную структуру модели, требуемые параметры, опорные функции (частные описания) и способ деления выборки.Гарантируется
нахождение наиболее точной или несмещенной В.С. Почему гарантируется? Г.И. Полный перебор гарантирует нахождение оптимального решения.Любые нелинейные функции или воздействия, которые могут иметь влияние на выходную переменную используются как входные параметры. В.С. Почему любые? Г.И. Другими словами мы даем компьютеру выбрать эффективные факторы из всех возможных входных переменных и нелинейных функций от них. Хотя тут не все так просто. МГУА
автоматически находит интерпретируемые
взаимосвязи в данных и выбирает
эффективные входные переменные. В.С. Только ли из выборки? Г.И. Автор дает выборку, задает критерий и класс функций только (например в Комбинаторном алгоритме) Подход МГУА используется для повышения точности других алгоритмов моделирования. В.С. Если не трудно объяснить, то каких и как? Г.И. Дважды-многорядные нейросети на основе алгоритмов МГУА разного типа (аналоги, параметрические алгоритмы) Дает возможность
отыскания несмещенной физической модели
объекта (закона или кластеризации) - одной и
той же для всех будущих выборок. В предыдущих
выпусках вы упоминали В.С. Что означает словосочетание "дополнительные переменные к выборке данных"? Г.И.
Извините, я слишком
кратко упомянул о следующем: Есть
такой хороший Многорядный алгоритм МГУА
разработанный Юрачковским Ю.П. названный
GN (Goedel Numbers). Он описан в Ивахненко
А.Г., Юрачковский Ю.П. Моделирование
сложных систем по экспериментальным
данным. - М.: Радио и связь, 1986. - 118с.
Если дана выборка с M
переменными, то она расширяется еще
несколькими F переменными, выходами,
расчитанными функциями от нескольких
моделей. После каждого ряда, в зависимости
от критерия, они перезаписываются
выходами лучших моделей. F бывает
постоянным или переменным как здесь.
Каждый последующий ряд должен иметь на
выбор не одно а несколько лучших решений.
Условия
окончания в Комбинаторном алгоритме вообще
нет, в многорядном - порог на сложность
модели и количество рядов. Хотя
самоорганизация требует исключения
всяческих порогов и искусственных
коэффициентов. (((В.С. Абсолютно согласен, возможно такие обозначения были в книге.))) исследователя нормировать или нет. В.С. Не уверен. Г.И.
Имелось в виду что нормирование не
обязательно и может существенно изменить
результаты моделирования. (((В.С. СКО - это среднее квадратическое отклонение? Интересно было бы иметь больше информации об "Акаике".)))
(((Г.И. Да можно
грубо сказать что критерий регулярности
это СКО расчитанное на подвыборке B. Классификация
критериев дана в ч.2 книги
Madala H.R., Ivakhnenko A.G. 'Inductive Learning Algorithms for Complex
Systems Modeling'. Там и
примеры и алгоритмы есть.
Посмотрите отчет
В.С. Степашко, Ю.В. Коппа Моделирование
эколого-экономических процессов по
данным наблюдений в условиях
неопределенности как задача структурной
идентификации (стр.6, 13) Там кроме того дан
метод критических дисперсий (помех).)))
находить
оптимальную сложность структуры модели,
адекватную уровню помех в выборке данных. В.С. m привязано только к кол-ву слагаемых в опорной функции, так что здесь я согласен. Может быть m<n, m>n, m=n. Г.И. "Шаг 4" - каждая третья точка в подвыборку B. В.С. Не возражаю, но так в книге. И кроме того утверждения о второй, третьей, четвертой и т.п. требуют доказательств. Г.И. Последние строгие эксперименты показали что предварительное ранжирование по дисперсии и затем разбиение (((В.С. Это по-настоящему интересно. Не могли бы дать ссылку. ))) (((Г.И.
К сожалению пока только
доклад.
Степашко В.С. Кондрашова
Н.В. Исследование способов генерации
вариантов разбиения выборки в алгоритмах
МГУА //
МКИМ-2002. Международная
конференция по индуктивному
моделированию, Львов, 20-25 мая 2002: Труды в 4-х
томах. - Т.1., Ч.1 - Львов: Государственный НИИ
информационной инфраструктуры, 2002. - 184 с. -
ISSN 0135-5465
Оптимальное разбиение
было теоретически показано в
Юрачковский Ю.П. Грошков
А.Н. Оптимальное разбиение исходных данных
на обучающую и проверочную
последовательности на основе анализа
функции распределения критерия //
Автоматика - 1980 - no.2 - с.5-9.
Почти вся теория и
применения были впервые опубликованы в
этом журнале. )))
хуже
других способов разбиения выборки. Но это
как критериология тема для отдельной науки. Если содержание выпуска вызвало у Вас вопросы, замечания, пожелания, а также критику, пишите. Анонс следующих выпусков. Метод и алгоритмы метода группового учета аргументов. Критерии несмещенности и баланса переменных. Интерполяционные полиномы. Методы предварительной обработки данных с целью уменьшения начальной энтропии |
||
Внимание! Если Вы имеете проблемы с анализом данных, не можете правильно решить задачу оптимизации или прогнозирования, напишите и, возможно, мы найдем решение вместе. А также научные работы в направлении обработки данных, консультации, практическая помощь в написании диссертационных, дипломных работ - от постановки задачи до разработки средств ее решения. |
||
Посетить сайт Информационные интеллектуальные системыНаписать автору рассылки |
||
P.S. Обещаю в рассылке анонсировать книги, конференции и семинары по представляемой тематике, а также смежным.
3-4 декабря 2002 г. в г. Киеве на базе
Украинского института |
||
|
http://subscribe.ru/
E-mail: ask@subscribe.ru |
Отписаться
Убрать рекламу |
В избранное | ||