DOI: https://doi.org/10.35681/1560-9189.2019.1.1.179699

Нейромережеве моделювання критичних температур піттінгоутворення сталі

O. V. Korniienko, S. O. Subbotin, O. E. Naryvskyi

Анотація


Вирішено завдання створення математичного забезпечення для побудови моделей кількісних залежностей на основі нейронних мереж прямого поширення. Запропоновано метод виключення нейронів, що враховує вплив кожного нейрона на помилку моделі. Вирішено практичне завдання визначення критичних температур піттінгоутворення сталі AiSi 321 за її характеристиками. Виконано побудову нейромережевих моделей, їхнє навчання та тестування на даних за характеристиками сталі. Порівняно результати тестування всіх побудованих моделей.


Ключові слова


вибірка; навчання; нейронна мережа; помилка; градієнт; виключення; ймовірність; сталь AiSi 321

Повний текст:

PDF

Посилання


Narivskij A.Je., Subbotin S.O., Belikov S.B., Jar-Muhamedova G.Sh., Atchibaev R.A. Pittingostojkost' stali AiSi 321 v hloridsoderzhashhih sredah v zavisimosti ot ee sostava i strukturnoj geterogennosti. ҚazҰTZU Habarshysy (Vestnik KazNITU). 2019. 1. S. 240–250.

Rudenko O.H., Bodyans'kyy Ye.V. Shtuchni neyronni merezhi. Kharkiv: Kompaniya SMIT, 2006. 404 s.

Bishop C. M. Pattern recognition and machine learning. Springer, 2006. 738 p.

Hajkin S. Nejronnye seti: polnyj kurs. Moskva: Viljams, 2006. 1104 s.

Kumar K.V. Neural networks and fuzzy logic. S.K. Kataria & Sons, 2016. 300 p.

Bertsekas D. P. Convex Optimization Theory. Athena Scientific, 2009. 256 p.

Nielsen M. Neural Networks and Deep Learning. Determination Press, 2015. 216 p.

Goodfellow I., Bengio Y., Courville A. Deep Learning. MIT Press, 2016. 781 p.

Louizos C., Welling M., Kingma D. P. Learning sparse neural networks through L0 regulariza-tion. Internation. Conf. on Learning Representations, 2018.

Srivastava N., Hinton G., Krizhevsky A., Sutskever I., Salakhutdinov R. Dropout: A Simple Way to Prevent Neural Networks from Overfitting. Journal of Machine Learning Research. 2014. 15. P. 1929−1958.

Caruana R., Lawrence S., Giles L. Overfitting in Neural Nets: Backpropagation, Conjugate Gradient, and Early Stopping. Neural information processing systems conference, 2000.

L’Ecuyer P. Random Number Generation. Springer, 2007. 31 p.