Russian
| English
"Куда идет мир? Каково будущее науки? Как "объять необъятное", получая образование - высшее, среднее, начальное? Как преодолеть "пропасть двух культур" - естественнонаучной и гуманитарной? Как создать и вырастить научную школу? Какова структура нашего познания? Как управлять риском? Можно ли с единой точки зрения взглянуть на проблемы математики и экономики, физики и психологии, компьютерных наук и географии, техники и философии?"

«Самообучающаяся ЭС. Часть 1. Постановка задачи» 
Варлам Кешелава, Роман Душкин, Тимур Кешелава

Специалисты практически едины во мнении, что семантические сети потенциально способны к самообучению[3], однако для современных семантических сетей реализация этой функции является проблематичной и требует постоянной работы предметных специалистов. Более того, по мере роста базы знаний потребность в присутствии предметных специалистов не уменьшается, а требования к их квалификации только повышаются.

Уточним, что «самообучением» семантической сети и ЭС, основанной на ней, в этом документе мы называем процесс обработки текстовой информации, который:

  • может частично производиться в автономном режиме;
  • должен требовать вмешательства эксперта и инженера по знаниям только в специально предусмотренных случаях;
  • должен обладать всеми необходимыми свойствами, обеспечивающими рост автономной части работы и уменьшение потребности во вмешательстве человека.

При этом, скорее всего, достичь полной автономности самообучения можно только в далёкой перспективе. В обозримом будущем обучающаяся семантическая сеть всегда будет обращаться к эксперту за помощью (функции «переспросить» и «уточнить» в ситуациях «не_понял» и «обнаружено_противоречие»). Важно, что по ходу обучения системы среднее число таких обращений на единицу обрабатываемого текста должно неуклонно падать.

Фактически конечным результатом разработки самообучающейся семантической сети является создание специфической ЭС (когнитивного вычислителя), способной обрабатывать тексты, пополняя новой информацией свою базу знаний.

Подчеркнем, что в данном тексте самообучением ЭС мы называем осуществляемый ею самой процесс обработки текстов с целью пополнения своей базы знаний.

5         Заключение

Рассчитывая создать полноценную информационную систему, обладающую всеми желаемыми «магическими» свойствами, необходимо заложить в её фундамент решения, не ограничивающие её полноты и гибкости. Недопустимо экономить на фундаменте, так как в конечном итоге его свойства определяют максимум количества этажей, которые на нём можно надстроить.

Список литературы

  1. Abraham A. Adaptation of Fuzzy Inference System Using Neural Learning, Fuzzy System Engineering: Theory and Practice, Nadia Nedjah et al. (Eds.), Studies in Fuzziness and Soft Computing, Springer Verlag Germany, Chapter 3, pp. 53–83, 2005. ISBN 3-540-25322-X.
  2. Bart K. Neural Networks and Fuzzy Systems: A Dynamical Systems Approach to Machine Intelligence. Englewood Cliffs, NJ: Prentice Hall, 1992. ISBN 0-13-611435-0.
  3. Dempster A. P. A generalization of Bayesian inference, Journal of the Royal Statistical Society, Series B, Vol. 30, pp. 205–247, 1968.
  4. Haselton M. Error Management Theory. Journal of Personality and Social Psychology. January 2000.
  5. Huang S., Papernot N., Goodfellow I., Duan Y., Abbeel P. Adversarial Attacks on Neural Network Policies, 2017. arXiv, cs.LG.
  6. Kansky K., Silver T., Mély D. A., Eldawy M., Lázaro-Gredilla M., Lou X. et al. Schema Networks: Zero-shot Transfer with a Generative Causal Model of Intuitive Physics, 2017. arXIv, cs.AI.
  7. Knight W. DARPA is funding projects that will try to open up AI’s black boxes. MIT Technology Review. Retrieved 2017-11-02.
  8. Marcus G. The Algebraic Mind: Integrating Connectionism and cognitive science. Cambridge, Mass.: MIT Press, 2001.
  9. Marcus G. Deep Learning: A Critical Appraisal — New York University, 2017. — https://arxiv.org/abs/1801.00631.
  10. Martin H., Jose A.; Javier de Lope; Darío Maravall. Adaptation, Anticipation and Rationality in Natural and Artificial Systems: Computational Paradigms Mimicking Nature. Natural Computing. Springer, 2009. 8 (4): 757–775. doi:10.1007/s11047-008-9096-6.
  11. Medsker L. R. Hybrid Intelligent Systems. — Boston: Kluwer Academic Publishers, 1995. — 298 p.
  12. Mikolov T., Chen K., Corrado G., Dean J. Efficient Estimation of Word Representations in Vector Space. arXiv, 2013.
  13. Miller G. A., Chomsky N. Pattern conception. Paper for Conference on pattern detection, University of Michigan. 1957.
  14. Minsky M. Computation: Finite and Infinite Machines. Englewood Cliffs, N.J.: Prentice-Hall. ISBN 0-13-165449-7.
  15. Regina B., McCullough D., Rambow O., DeCristofaro J., Korelsky T., Lavoie B. A New Approach to Expert System Explanations. USAF Rome Laboratory Report, 1998.
  16. Shafer G. A Mathematical Theory of Evidence, Princeton University Press, 1976.
  17. Socher R., Huval B., Manning C. D., Ng A. Y. Semantic compositionality through recursive matrix-vector spaces. Proceedings from Proceedings of the 2012 joint conference on empirical methods in natural language processing and computational natural language learning, 2012.
  18. Sowa J. F., Borgida A. Principles of Semantic Networks: Explorations in the Representation of Knowledge, 1991.
  19. Weiss G., ed. by, Multiagent Systems, A Modern Approach to Distributed Artificial Intelligence, MIT Press, 1999, ISBN 0-262-23203-0.
  20. Wooldridge M. An Introduction to MultiAgent Systems, John Wiley & Sons Ltd, 2002, paperback, 366 p., ISBN 0-471-49691-X.
  21. Бир С. Мозг фирмы. — М.: Радио и связь, 1993. — 416 с. ISBN 5-256-00426-3.
  22. Голованов Г. Gartner: «Хайп вокруг ИИ идёт во вред технологии и потребителям» — Хайтек, 19 июля 2017. — https://hightech.fm/2017/07/19/ai-hype.
  23. Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение = Deep Learning. — М.: ДМК Пресс, 2017. — 652 с. — ISBN 978-5-97060-554-7.
  24. Добров Б. В., Иванов В. В., Лукашевич Н. В., Соловьёв В. Д. Онтологии и тезаурусы: модели, инструменты, приложения. — М.: Бином. Лаборатория знаний, 2009. — 173 с. — ISBN 978-5-9963-0007-5.
  25. Душкин Р. В. Методы получения, представления и обработки знаний с НЕ-факторами. — 2011. — 115 стр., ил.
  26. Душкин Р. В., Рыбина Г. В. Об одном подходе к автоматизированному извлечению, представлению и обработке знаний с НЕ-факторами. В кн.: Известия РАН. Теория и системы управления, № 5. — М.: 1999. — стр. 34-44.
  27. Душкин Р. В., Жарков А. Д., Иванов Д. А. От безопасного к умному городу — Нижний Новгород: ИТ Форум 2020. «Развитие цифрового государства. Создание систем весогабаритного контроля, интеллектуальных транспортных систем». — 12-14 апреля 2017 года.
  28. Заде Л. Понятие лингвистической переменной и его применение к принятию приближённых решений. — М.: Мир, 1976. — 166 с.
  29. Бродский Ю.И. 2013. Модельный синтез и модельно ориентированное программирование. ВЦ им.Дородницина
  30. Зайцев И. М., Федяев О. И. Агентно-ориентированный подход к моделированию интеллектуальных распределённых систем. Сб. — Донецк: ДонНТУ, 2008. — С. 337-338.
  31. Каллан Р. Основные концепции нейронных сетей = The Essence of Neural Networks First Edition. — М.: Вильямс, 2001. — 288 с. — ISBN 5-8459-0210-X.
  32. Колесников А. В. Гибридные интеллектуальные системы: Теория и технология разработки. — СПБ: Изд-во СПбГТУ, 2001. — 711 с.
  33. Кондаков Н. И. Обобщение // Логический словарь-справочник, Изд. 2, М.: Наука, 1975, с. 395.
  34. Круглов В. В., Борисов В. В. Искусственные нейронные сети. Теория и практика. — М.: Горячая линия — Телеком, 2001. — 382 с. — ISBN 5-93517-031-0.
  35. Кэрролл Р. Т. Энциклопедия заблуждений: собрание невероятных фактов, удивительных открытий и опасных поверий. — М.: Издательский дом «Вильямс», 2005. — 672 с. — ISBN 5-8459-0830-2, ISBN 0-471-27242-6.
  36. Лоран П. Ж. Аппроксимация и оптимизация. — М.: Мир, 1975. — С. 496.
  37. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. — СПб.: Питер, 2018. — 480 с. — ISBN 978-5-496-02536-2.
  38. Терелянский П. В. Системы поддержки принятия решений. Опыт проектирования: монография / П. В. Терелянский; ВолгГТУ. — Волгоград, 2009. — 127 с.
  39. Флах П. Машинное обучение. — М.: ДМК Пресс, 2015. — 400 с. — ISBN 978-5-97060-273-7.
  40. Хайкин С. Нейронные сети: полный курс = Neural Networks: A Comprehensive Foundation. 2-е изд. — М.: Вильямс, 2006. — 1104 с. — ISBN 0-13-273350-1.
  41. Эшби У. Р. Введение в кибернетику. — М.: Изд. иностр. лит., 1959. — 432 с.
  42. Шевченко. О взаимосвязи формализации описательных наук, когнитивного анализа, «искусственного интеллекта», теории игр и теории КЛС. — Цифровая экономика, 2019

[1] С переводом можно ознакомиться по адресу https://geektimes.ru/post/297309/

[2] Один пиксель превратит лошадь в корабль для нейронной сети: https://indicator.ru/news/2017/10/31/odin-piksel-nejroset/

[3] В литературе термины «обучение» и «самообучение» часто используется слишком вольно. Так автоматический подбор параметров модели может быть назван её «обучением», что представляется нам некорректным. В этом тексте указанные термины используются в их исходном общеязыковом значении.

Сетевое издание «Цифровая экономика»