Аналітичний підхід до вибору топології нейросіток при розв’язанні прикладних задач
DOI:
https://doi.org/10.20535/1560-8956.20.2012.30717Ключові слова:
Персептрон, Нейротехнології, Штучний нейрон, Штучна нейромережа, Алгоритм зворотного поширення помилки, Навчання нейромережі, Топологія нейромережі, Багатофункціональне середовище, Рейтингове оцінювання, мультиагентна системаАнотація
На основі розробленого реляційного класифікатора запропонований універсальний підхід до вибору топології нейромереж, що задовольняють критеріям вирішення прикладної проблеми / задачі. Запропоновано агентно-орієнтований підхід до вибору топології нейромережі. Обгрунтована логічна схема поетапного синтезу штучних нейромереж, що дозволяє автоматизувати процедуру пошуку нейромережі, яка забезпечує обслуговування вимог прикладної задачі.
Посилання
Айзерман М.Ф. Метод потенциальных функций в теории обучения машин / Айзерман М.Ф., Браверман Э.М., Розоноэр Л.И. – М.: Наука, 1970
Барцев С.И. Адаптивные сети обработки информации / Барцев С.И., Охонин В.А. – Красноярск: Ин-т физики СО АН СССР, 1986. Препринт № 59Б. – 20 с.
Бонгард М.М. Проблемы узнавания. – М.: Физматгиз, 1967
Винер Н. Кибернетика или управление и связь в животном и машине. – М.: Сов. радио, 1968. – 326 с.
Галушкин А.И. Синтез многослойных систем распознавания образов. – М.: Энергия. – 1974.
Горбань А.Н. Нейроинформатика: кто мы, куда мы идём, как путь наш измерить? // Вычислительные технологии. – М.: Машиностроение. – 2000. – № 4. – С. 10-14
Ивахненко А.Г. Метод группового учета аргументов – конкурент метода стохастической аппроксимации // Автоматика. – 1968. – № 3. – С. 58-72.
Ивахненко А.Г. Самообучающиеся системы распознавания и автоматического управления. – К.: «Техніка», 1969. – 392 с.
Ивахненко А.Г. Системы эвристической самоорганизации в технической кибернетике. – К.: «Техніка», 1971. – 372 с.
Петров А.П. О возможностях персептрона // Известия АН СССР, Техническая кибернетика. – 1964. – №6
Чернодуб А.Н. Обзор методов нейроуправления / Чернодуб А.Н., Дзюба Д.А.//Проблемы программирования. – 2011. – № 2. – С. 79-94
Ямпольский Л.С. Автоматизированные системы технологической подготовки робототехнического производства / Ямпольский Л.С., Калин О.М., Ткач М.М. – К.: Вища шк., 1987. – 271 с.
Ямпольский Л.С. Объектно-ориентированный выбор топологии нейросетей при решении прикладных задач / Ямпольский Л.С., Лисовиченко О.И. // Стратегия качества в промышленности и образовании. Материалы VIII Международной конференции, 8-15 мая 2012. – Варна, Болгария: Техничекий ун-т. – 2012. – С. 475 – 478
Ямпольский Л.С. Системы искусственного интеллекта в планировании, моделировании и управлении (на укр. яз.) / Ямпольский Л.С., Ткач Б.П., Лисовиченко О.И. – К.: ДП «Вид. Дім «Персонал», 2011. – 544 с.
Ackley D.H., Hinton G.E. and Sejnowski T.J. A Learning Algorithm for Boatman Machines // Cognitive Science. – 1985. – 9. – P. 147-169
Almeida L.B. A Learning Rule for Asynchronous Perceptrons with Feedback in a Combinatorial Environment // Proc. of the First IEEE International Conference on Neural Networks, USA, SanDiego, 1987. – Vol. 2. – P. 609-618
Anderson J.A. Two Models for Memory Organization // Mathematical Biosciences. – 1970. – 8. – P. 137-160
Bartsev S.I., Okhonin V.A. The algorithm of dual functioning (back-propagation): general approach, versions and applications. Krasnoyarsk: Biophysics Institute SB AS USSR of, 1989. Preprint, №107B. – 16 p.
Bellifemine F.L., Caire G. and Greenwood D. Developing Multi-Agent Systems with JADE. – Wiley, 2007.
Carpenter G.A. and Grossberg S. The ART of Adaptive Pattern Recognition by a Self-Organizing Neural Networks // Computer. – 1988. – March. – P. 77-88
Carpenter G.A., Grossberg S. and Rosen D.B. Fuzzy ART: Fast Stable Learning and Categorization of Analog Input Patterns by an Adaptive Resonance System // Neural Networks. – 1991. – 4. – P. 759-771
Elman J.L. Finding Structure in Time // Cognitive Science. – 1990. – 14. – P. 179-211
Fahlman S.E. and Lebiere C. The Cascade-Correlation Learning Architecture / Carnegi Mellon Report. Nr. CMU-CS-88-162, 1990
Fukushima K. Neocognitron: A Self-organizing Neural Network for a Mechanism of Pattern Recognition Unaffected by Shift in Position // Biological Cybernetics. – 1980. – 36. – P. 193-202
Fukushima K. Cognitron: A Self-organizing Multiplayered Neural Network // Biological Cybernetics. – 1975. – 20. – P. 121-136
Grossberg S. Competitive Learning: From Interactive Activation do Adaptive Resonance // Cognitive Science. – 1987. – 11. – P. 23-63
Grossberg S. Nonlinear Neural Networks: Principles, Mechanism and Architectures // Neural Networks, 1988. – V.1. – № 1. – P. 17-62.
Haken H., Fuchs A., Banzhatt W. Mustererkennung durch synergetische Computer. Teil 1. Und 2 // Design and Elektronik, 1989
Harp S. and Samad T. Genetic Optimization of Neural Networks Architectures for Electric Utility Applications / Final Report. Electric Power Research Institute, Research Project № 8016-04, Palo Alto, CA. March. – 1994
Hecht-Nielsen R. Theory of the Backpropagation Neural Network / Proc. of Int. Joint. Conf. on Neural Networks. – Washington: D. C., 1989. – 1. – P. 593-606
Hebb D. The Organization of Behavior. – New York: Willey Publications, 1949
Hinton G.E. Connectionist Learning Procedures // Artificial Intelligence. – 1989. – 40. – P. 185-234
Holland J.L. Adaptation in Natural and Artificial Systems: An Introductory Analysis with Application to Biology, Control and Artificial Systems. – The University of Michigan Press, Ann Arbor. – 1975
Hopfield J.J. Neural Networks and Physical Systems with Emergent Collective Computational Abilities // Proc. of the National Academy of Science. – 1982. – 79. – Р. 2554-2558
Hopfield J.J. Neurons with Graded Response Have Collective Computational Properties Like Those of Two-State Neurons // Proc. of the National Academy of Science. – 1982. – 81. – Р. 3088-3092
Jordan M.I. Attractor Dynamics and Parallelism in a Connectionist Sequential Machine // Proc. of the Eight Annual Conference of the
Cognitive Science Society, Erlbaum, Hillsdale NJ, 1986. – P. 531-546
Kohonen T. Associative Memory: A System Theoretic Approach. – Berlin: Springer, 1977
Kohonen T. Self-Organized Formation of Topologically Correct Feature Maps // Biological Cybernetics. – 1982. – 43. – P. 59-69
Kosko B. Adaptive Bidirectional Associative Memories // Appl. Optics. – 1987. – 26. – № 33. – P. 4947-4960
Koza J.P. Genetic Programming: On the Programming of Computers by Means of Natural Selection. – Cambridge, MA, MIT Press, 1992
Lang K.J., Waibel A.H. and Hinton G.E. A Time-Delay Neural Network Architecture for Isolated Word Recognition // Neural Network. – 1990. – 3. – № 1. – P. 23-43
Lippman R.P. An Introduction to Computing with Neural Nets // IEEE ASSP Magazine. – 1987. – № 4. – P. 4-22
Mc Culloch W.S. and Pitts W. A Logical Calculus of the Ideas Immanent in Nervous Activity // Bulletin of Mathematical Biophysics. – 1943. – 5. – P. 115-133
Minsky M.L. and Papert S.A. Perceptrons // Cambridge (Mass): MIT press, 1969. – 321 p.
Nelles O., Ernst S. and Isermann R. Neuronale Netze sur Identifikation nichtlinearer dynamischer Systeme: Ein berblick // Automatisierungstechnik. – 1997. – 45. – № 6. – S. 251-262
Patterson D. Artificial Neural Networks: Theory and Application. – Singapore: Prentice Hall Inc., 1996
Pham D.T. and Liu X. Modelling and Prediction using GMDH Networks of Adalines with Nonlinear Preprocessors // Intern. Jornal System Science. 1994. – 25. – № 11. – P. 1743-1759
Pineda F.J. Dynamic and Architectures for Neural Computation // Journal of Complexity. – 1988. – 4. – P 216-245
Powell V.J.D. Radial Basis Functions for Multivariable Interpolation: A review / Proc. of IMA Conf. on Algorithms for the Approximation of Functions and Data, Shrivenham, UK. – 1985. – P. 143-167
Rosenblatt F. The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain // Psychological Review. – 1958. – 65. – P. 386-408
Rumelhart D.E., Hilton G.E. and Williams R.J. Learning Internal Representations by Error Propagation / In Parallel Distributed Processing: Explorations in the Microstructure of Cognition. D.E. Rumelhart, J.L. Mc Clelland (Eds). – Cambridge: MitPress, 1986. – Vol. 1. – Chapt. 8. – P. 318-364
Waibel A., Hanazava T., Hinton G., Shikano K. And Lang K.J. Phoneme Recognition using Time-Delay Neural Network // IEEE Trans. on Acoustics, Speech and Signal Processing, 1989. – 37. – № 3. – P. 328-339
Werbos P.J. Bejond regression: New Tools for Prediction and Analysis in the Behavioral Sciences. Ph.D thesis. – Cambridge, MA, Harvard University, 1974
Widrow B. and Hoff M.E. Adaptive Switching Circuits / IRE WESCON Convention Record – New York, IRE, 1960. – P. 96-104
Whitley D., Dominic S. and Das R. Genetic Reinforcement Learning with Multilayer Neural Networks / In Belew and Booker. – 1991. – P. 562-570
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у нашому журналі.
2. Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована нашим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у нашому журналі.
3. Політика журналу дозволяє і заохочує розміщення рукопису роботи авторами в мережі Інтернет (наприклад, на arXiv.org або на особистих веб-сайтах). Причому рукописи статей можуть бути розміщенні у відкритих архівах як до подання рукопису до редакції, так і під час його редакційного опрацювання. Це сприяє виникненню продуктивної наукової дискусії, позитивно позначається на оперативності ознайомлення наукової спільноти з результатами Ваших досліджень і як наслідок на динаміці цитування вже опублікованої у журналі роботи. Детальніше про це: The Effect of Open Access.