Нейромережеве моделювання критичних температур піттінгоутворення сталі

Автор(и)

  • O. V. Korniienko Запорізький національний технічний університет, Ukraine
  • S. O. Subbotin Запорізький національний технічний університет, Ukraine
  • O. E. Naryvskyi ТОВ «Укрспецмаш», Ukraine

DOI:

https://doi.org/10.35681/1560-9189.2019.1.1.179699

Ключові слова:

вибірка, навчання, нейронна мережа, помилка, градієнт, виключення, ймовірність, сталь AiSi 321

Анотація

Вирішено завдання створення математичного забезпечення для побудови моделей кількісних залежностей на основі нейронних мереж прямого поширення. Запропоновано метод виключення нейронів, що враховує вплив кожного нейрона на помилку моделі. Вирішено практичне завдання визначення критичних температур піттінгоутворення сталі AiSi 321 за її характеристиками. Виконано побудову нейромережевих моделей, їхнє навчання та тестування на даних за характеристиками сталі. Порівняно результати тестування всіх побудованих моделей.

Посилання

Narivskij A.Je., Subbotin S.O., Belikov S.B., Jar-Muhamedova G.Sh., Atchibaev R.A. Pittingostojkost' stali AiSi 321 v hloridsoderzhashhih sredah v zavisimosti ot ee sostava i strukturnoj geterogennosti. ҚazҰTZU Habarshysy (Vestnik KazNITU). 2019. 1. S. 240–250.

Rudenko O.H., Bodyans'kyy Ye.V. Shtuchni neyronni merezhi. Kharkiv: Kompaniya SMIT, 2006. 404 s.

Bishop C. M. Pattern recognition and machine learning. Springer, 2006. 738 p.

Hajkin S. Nejronnye seti: polnyj kurs. Moskva: Viljams, 2006. 1104 s.

Kumar K.V. Neural networks and fuzzy logic. S.K. Kataria & Sons, 2016. 300 p.

Bertsekas D. P. Convex Optimization Theory. Athena Scientific, 2009. 256 p.

Nielsen M. Neural Networks and Deep Learning. Determination Press, 2015. 216 p.

Goodfellow I., Bengio Y., Courville A. Deep Learning. MIT Press, 2016. 781 p.

Louizos C., Welling M., Kingma D. P. Learning sparse neural networks through L0 regulariza-tion. Internation. Conf. on Learning Representations, 2018.

Srivastava N., Hinton G., Krizhevsky A., Sutskever I., Salakhutdinov R. Dropout: A Simple Way to Prevent Neural Networks from Overfitting. Journal of Machine Learning Research. 2014. 15. P. 1929−1958.

Caruana R., Lawrence S., Giles L. Overfitting in Neural Nets: Backpropagation, Conjugate Gradient, and Early Stopping. Neural information processing systems conference, 2000.

L’Ecuyer P. Random Number Generation. Springer, 2007. 31 p.

##submission.downloads##

Опубліковано

2019-11-05

Номер

Розділ

Технічні засоби отримання і обробки даних