Огляд та аналіз одного з підходів до навчання до навчання моделі нейронної мережі
DOI:
https://doi.org/10.20535/1560-8956.37.2020.226815Ключові слова:
штучна нейронна мережа, машинне навчання, глибинне навчання, прогнозування, мережі прямого поширення, перцептрон, багатошаровий перцептронАнотація
У статті проведений огляд та аналіз одного з підходів до навчання моделі нейронної мережі. Створено список вимог до навчання моделі. У якості архітектури нейронної сітки розглянуто мережі прямого поширення (перцептрон та багатошаровий перцептрон) та обрано багатошаровий перцептрон. Вхідними даними для навчання та тестування моделі були відомості з ринку електричної енергії протягом одного року. Описано кожен етап побудови та навчання моделі, яка слугуватиме для прогнозування даних. Навчена модель протестована за допомогою визначення середньої абсолютної помилки у відсотках (MAPE). Побудовано графіки та таблиці, які показують залежність точності моделі від параметрів та вхідних даних при навчанні. Отримані результати можна використовувати для практичного застосування, зокрема для прогнозування економічних показників.
Бібл. 9, іл. 10, табл. 1.
Посилання
Neurotechnologies and neurocomputer systems: textbook. Yampolskyi L. S., Lisovichenko O.I., Oliynyk V.V. Kyiv: Dorado-Druk, 2016. 576 p. (Ukr.)
Feedforward Neural Networks and Multilayer Perceptrons. URL: https://boostedml.com/2020/04/feedforward-neural-networks-and-multilayer-perceptrons.html (date of use: 26.11.2020)
Perceptrons and Multi-Layer Perceptrons: The Artificial Neuron at the Core of Deep Learning. URL: https://missinglink.ai/guides/neural-network-concepts/perceptrons-and-multi-layerperceptrons-the-artificial-neuron-at-the-core-of-deep-learning/ (date of use: 26.11.2020)
Multilayer perceptron. URL: https://wiki.loginom.ru/articles/multilayered-perceptron.html (date of use: 27.11.2020) (Rus.)
MLPRegressor URL: https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPRegressor.html (date of use: 27.11.2020)
Neural Architecture search: A Survey URL: https://www.jmlr.org/papers/volume20/18-598/18-598.pdf (date of use: 28.11.2020)
Random Search for Hyper-Parameter Optimization. URL: https://www.jmlr.org/papers/volume13/bergstra12a/bergstra12a.pdf (date of use: 28.11.2020)
Limited-Memory Broyden-Fletcher-Goldfarb-Shanno. URL: https://software.intel.com/sites/products/documentation/doclib/daal/daal-user-and-reference-guides/daal_prog_guide/GUID-254D0216-3379-4733-95CA-138009F24A04.htm (date of use: 02.12.2020)
Basic estimates of the accuracy of time series forecasting. URL: https://www.mbureau.ru/ blog/osnovnye-ocenki-tochnosti-prognozirovaniya-vremennyh-ryadov (date of use: 05.12.2020) (Rus.)
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у нашому журналі.
2. Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована нашим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у нашому журналі.
3. Політика журналу дозволяє і заохочує розміщення рукопису роботи авторами в мережі Інтернет (наприклад, на arXiv.org або на особистих веб-сайтах). Причому рукописи статей можуть бути розміщенні у відкритих архівах як до подання рукопису до редакції, так і під час його редакційного опрацювання. Це сприяє виникненню продуктивної наукової дискусії, позитивно позначається на оперативності ознайомлення наукової спільноти з результатами Ваших досліджень і як наслідок на динаміці цитування вже опублікованої у журналі роботи. Детальніше про це: The Effect of Open Access.