
Список возможных запросов в базе данных ГЕН
Хранилища данных
Хранилище данных (Data warehouse) = собрание всех данных в электронной форме в данной организации.
Такое объединение позволяет руководству заниматься интегральными задачами по доступу, извлечению, преобразованию и анализу данных, включая словарь. В анализ данных часто включают интеллектуальные инструменты бизнеса, включая средства манипулирования метаданными, т.е. названиями атрибутов и отношений.
Два основных – не совсем взаимоисключающих - подхода к организации данных в хранилище – размерностный (dimensional) и нормализованный (normalized).
В размерностном подходе, данные делятся на «факты» (числовые данные о транзакциях) и «параметры» (контекст). Например, данные о конкретной продаже можно разделить на факты – число заказанных изделий и цены, и параметры – дата заказа, имя потребителя, адреса доставки и платежа, сотрудник, организовавший продажу, и пр. Преимущество – удобство использования. Недостатки – сложность организации взаимодействия разных баз, типично, в разных компютерах; трудность реорганизации при изменении бизнес-модели.
При нормализованном подходе используются правила нормализации реляционных данных. Данные сгруппированы по предметным областям – потребители, финансы, продукты и пр. Преимущество – легко манипулировать с данными – добавлять, менять и пр. Недостатки: из-за многочисленности таблиц трудно формировать сводные таблицы; для доступа к информации необходимо точно знать, где что находится.
Распределенные системы и электронные коллективы.
Распределенные системы полезны в ситуациях, когда пользователи в разных местах интересуются, в основном, локальной информацией, как например, расписание транспорта или банковские клиенты.
Преимущество – быстрый доступ к локальной информации. Проблема – поддержка целостности. Обычно – за счет так называемой двухступенчатой привязки (two-phase commit). Первый этап - запись, которую предлагается модифицировать, запирается во всех вершинах сети. По получении подтверждения от всех вершин, второй этап – модификация. Недостаток – когда много вершин, велика вероятность невозможности операции. В случаях, когда это важно, используют так называемые реплики – все базы – точные копии друг друга, и изменение делается в одной базе только с тем, чтобы провести его, скажем, раз в сутки, когда все спят.
Машинный интеллект
Адаптация: эволюция алгоритма - эволюция популяций - система взаимодействующих агентов.
Изменение формата данных: Размытые и грубые множества.
Классификация и вывод.
Принятие решений и планирование.
10.1 От эволюции популяций к системам взаимодействующих агентов.
Агенты – смесь деловых игр и децентрализованных моделей поведения. И то, и другое развивалось в СССР в 70-80 – не на Западе, но там не пригодилось, как почти все остальное.
10.2 Размытые и грубые множества.
Размытые множества введены Л. Заде в 60-е годы прошлого века. В отличие от твердых множеств, функция принадлежности может быть любым числом от 0 до 1, что сближает их с вероятностями, но позволяет значительно больше интерпретаций – и операций. В частности, рассматривают аналоги теоретико-множественных операций объединения, пересечения и дополнения. Такие множества могут количественно моделировать нечеткие языковые понятия как «молодой», «отличный» и пр., в том числе использоваться в количественных соотношениях. В частности, удачно работают «размытые регуляторы», основанные на представлении каждого показателя тремя размытыми множествами «высокое значение», «среднее значение», «малое значение», поскольку такое деление часто имеет физический смысл и освобождает от конкретных измерительных нюансов распределения.
Грубые множества введены в 1991 в монографии Зенона Павляка (Польша). Они имеют значительно более узкую область применимости, относясь, скорее к свойствам категорий, определенных на объектах.
Пример:
| Условная таблица данных | |||||
| Object | P 1 | P 2 | P 3 | P 4 | P 5 |
| O 1 | 1 | 2 | 0 | 1 | 1 |
| O 2 | 1 | 2 | 0 | 1 | 1 |
| O 3 | 2 | 0 | 0 | 1 | 0 |
| O 4 | 0 | 0 | 1 | 2 | 1 |
| O 5 | 2 | 1 | 0 | 2 | 1 |
| O 6 | 0 | 0 | 1 | 2 | 2 |
| O 7 | 2 | 0 | 0 | 1 | 0 |
| O 8 | 0 | 1 | 2 | 2 | 1 |
| O 9 | 2 | 1 | 0 | 2 | 2 |
| O 10 | 2 | 0 | 0 | 1 | 0 |
Любое множество подмножество признаков P разбивает множество объектов на классы эквивалентности [x]P, состоящие из объектов, одинаковых на этом подмножестве. Например, для множества всех пяти признаков имеется 7 классов эквивалентности:

Для множества, состоящего из одного признака P 1, разбиение имеет вид:

Всякому подмножеству объектов X всякое множество признаков P сопоставляет его нижнюю и верхнюю аппроксимации. Нижняя аппроксимация состоит из таких элементов из X, чьи [x]P классы целиком содержатся в Х. Верхняя аппроксимация состоит из таких элементов из X, чьи [x]P классы пересекаются с Х.
Пусть, например, X = { O 1, O 2, O 3, O 4}, и P = { P 1, P 2, P 3, P 4, P 5}, все признаки.
Нижняя аппроксимация
, верхняя аппроксимация
- то, что можно сказать об Х по информации только о значениях признаков. Эта пара и образует грубое множество.
Понятие грубого множества полезно для выбора значимых множеств признаков и определения значимых связей между признаками.
Перспективы
Перспективные приложения.
11.2 Моделирование решений.
11.3 Моделирование знаний с наличием противоречий.
11.4 Моделирование понимания.
Использованная литература
1. Блехман И.И., Мышкис А.Д., Пановко, Я.Г. Прикладная математика: предмет, логика, особенности подходов. - М.: Издательство ЛКИ, 2007. - 376 с.
2. Кун Т., Структура научных революций, М., Прогресс, 1977. – 300 с.
3. Тутубалин В.Н. Границы применимости: вероятностно-статистические методы и их возможности, М.: Знание, 1977. – 64 с.
4. Уемов А.И. Аналогия в практике научного исследования. Из истории физико-математических наук, М.: Наука, 1970. – 264 с.
5. The history of computing: Web resource in Virginia Technology University, 2002, ei.cs.vt.edu/~history/.
6. Michelle A. Hoyle, The history of computing science, 2006, website http:// www.eingang.org/ Lecture/toc.html.
7. O’Regan Gerard, A Brief History of Computing, Springer, 2008.- 252 p.
8. Плошко Б.Г., Елисеева И.И. История статистики. – М: Финансы и статистика, 1990.
9. Манин Ю.И. Математика как метафора. – М.: МЦНМО, 2008.
10. Пуанкаре А. О науке. – М.: Наука, 1983.
11. U.M. Fayyad, G. Piatetsky-Shapiro, P. Smyth, R. Uthurusamy, Advances in Knowledge Discovery and Data Mining, AAAI Press, 1996.
12. P. Buitelaar, P. Cimiano, B. Magnini, Eds., Ontology Learning from Text: Methods, Evaluation and Applications, IOS Press, 2005.
13. Бочаров В.А., Маркин В.И. Основы логики. - М.: ИНФРА-М, 1997. - 296 с.
14. Mirkin, B. Mathematical classification and clustering, - Dorderecht: Kluwer, 1996.- 448 p.
15. Mirkin, B. Core concepts in data analysis: summarization, correlation,visualization, Springer, 2011, 390 p.
16. Small world phenomenon, website: en.wikipedia.org/wiki/Small_world_phenomenon, 2008.
17. Good P.I. Resampling methods, - Birkhäuser Boston, 2005, 218 p.
18. Салий В.Н. Математические основы гуманитарных знаний. – Саратов: Изд-во СГУ, 2006.
19. Тутубалин В.Н. Теория вероятностей. М.: МГУ, 1972.
20. Клейн Ф. Элементарная математика с точки зрения высшей, тт. 1, 2. – М.: Наука, 1987 (изд. 4-е).






