Модель определения направлений выпускников школьников на основе алгоритмов машинного обучения

inLibrary
Google Scholar
Выпуск:
Отрасль знаний
Поделиться
Маллаев, О., Усарбоев, Ш., & Нурова, З. (2024). Модель определения направлений выпускников школьников на основе алгоритмов машинного обучения. Международный научный журнал «ALFRAGANUS», 1(6), 58–63. извлечено от https://inlibrary.uz/index.php/alfraganus/article/view/30310
Crossref
Сrossref
Scopus
Scopus

Ключевые слова:

Аннотация

Цель данной статьи – определить ориентацию школьников с точки зрения оценок по предметам и softskills с помощью методов машинного обучения. В статье были рассмотрены сложности построения сигмовидной функции с использованием многомерной линейной регрессии, а также оцифрованы оценки, полученные по выбранным предметам в области образования студентов за 10 лет и их различные параметры, причины и возможности студента. Используя эти числа, был создан набор обучающих данных. В результате была разработана классификация предметов, изучаемых школьниками за 10 лет, и их оценки. Проанализированы архитектуры нейронных сетей, модули, наиболее часто используемые функции активации в алгоритмах машинного обучения, методы обучения и методы построения линейной и логистической регрессии, недостатки и возможности. Изучены пути упрощения функции градиентного спуска для многомерной линейной регрессии путем векторного расчета. Поскольку в этом типе линейной регрессии участвует множество переменных, векторные вычисления оказались более удобными. Также рассмотрены способы параллельного расчета процессов градиентного спуска с использованием векторных вычислений. В частности, были определены добавление столбцов таблицы обучающих данных, транспонирование коэффициентов - AT, векторизованное представление линейной функции, гиперпараметры для градиентного спуска (скорость обучения - , количество ш


background image

57

Alfraganus

xalqaro ilmiy jurnali

1 (6) 2024

MASHINAVIY O'QITISH ALGORITMLARIASOSIDA MAKTAB

BITIRUVHILARINING YO'NALISHLARINI ANIQLASH MODELI


background image

58

1 (6) 2024

Alfraganus

xalqaro ilmiy jurnali

Annotatsiya.

Ushbu maqolaning maqsadi mashinaviy o‘qitish (machine learning) usullaridan foydalangan

holda maktab o‘quvchilarini fanlardan olgan baholari va softskills ko‘nikmalari bo‘yicha ularning yo‘nalishlarini

aniqlashdir. Maqolada ko‘p o‘zgaruvchili chiziqli regressiya yordamida sigmoid funksiya qurish murakkabliklari

ko‘rib chiqildi hamda o‘quvchilarni 10 yil davomida ta’lim yo’nalishi bo‘yicha tanlangan fanlardan olingan baholari

va ularni turli parametrlari, sabablari hamda o‘quvchining imkoniyatlari raqamlashtirildi. Ushu raqamlar yordamida

trening ma’lumotlar top‘lami tashkil qilindi. Natijada maktab o‘quvchilarini 10 yil davomida o‘qigan fanlari va

ulardan oligan baholarining klassifikatsiyasi ishlab chiqildi. Neyron tarmoq arxitekturalari, modullari, mashinaviy

o‘qitish algoritmlarida eng ko‘p qo‘llanilayotgan aktivlashtirish funksiyalari, o‘qitish usullari hamda chiziqli va

logistik regressiya qurish usullari, kamchiliklari va imkoniyatlari tahlil qilingan. Ko‘p o‘zgaruvchili chiziqli regressiya

uchun gradiyent tusish funksiyasini vektorlangan hisoblash orqali qulaylashtirish yo‘llari o‘rganib chiqildi. Chiziqli

regressiyaning bu turida juda ko‘p o‘zgaruvchilar qatnashganligi uchun vektor hisob-kitoblar ancha qulayli isbotlangan.

Vektor hisoblashlar yordamida gradiyent tushish jarayonlarini parallel hisoblash yo‘llari ham ko‘rib o‘tilgan. Hususan,

trening ma’lumotlar jadvalining ustunlarini qo‘shish, koeffitsiyentlarni transpozitsiyalash - AT, chiziqli funksiyaning

vektorlangan ko‘rinishlari, gradiyent tushish uchun giperparametrlar (o‘rganish darajasi - , qadamlar soni) aniqlab

olindi.

Annotation.

The purpose of this article is to determine the orientation of schoolchildren in terms of grades in

subjects and soft skills using machine learning methods. The article examined the difficulties of constructing a

sigmoid function using multivariate linear regression, and also digitized grades obtained in selected subjects in the

field of student education over 10 years and their various parameters, reasons and student capabilities. . Using these

numbers, a training data set was created. As a result, a classification of subjects studied by schoolchildren over 10 years

and their assessments was developed. Neural network architectures, modules, the most commonly used activation

functions in machine learning algorithms, training methods and methods for constructing linear and logistic regression,

disadvantages and opportunities are analyzed. Ways to simplify the gradient descent function for multivariate linear

regression by vector calculation have been studied. Because there are many variables involved in this type of linear

regression, vector calculations have proven to be more convenient. Methods for parallel calculation of gradient descent

processes using vector calculations are also considered. In particular, the addition of training data table columns,

transposition of coefficients - AT, vectorized representation of a linear function, hyperparameters for gradient descent

(learning rate - , number of steps) were defined.

Аннотация.

Цель данной статьи – определить ориентацию школьников с точки зрения оценок по пред

-

метам и softskills с помощью методов машинного обучения. В статье были рассмотрены сложности построе

-

ния сигмовидной функции с использованием многомерной линейной регрессии, а также оцифрованы оценки,

полученные по выбранным предметам в области образования студентов за 10 лет и их различные параметры,

причины и возможности студента. Используя эти числа, был создан набор обучающих данных. В результате

была разработана классификация предметов, изучаемых школьниками за 10 лет, и их оценки. Проанализиро

-

ваны архитектуры нейронных сетей, модули, наиболее часто используемые функции активации в алгоритмах

машинного обучения, методы обучения и методы построения линейной и логистической регрессии, недостатки

и возможности. Изучены пути упрощения функции градиентного спуска для многомерной линейной регрес

-

сии путем векторного расчета. Поскольку в этом типе линейной регрессии участвует множество переменных,

векторные вычисления оказались более удобными. Также рассмотрены способы параллельного расчета процес

-

сов градиентного спуска с использованием векторных вычислений. В частности, были определены добавление

столбцов таблицы обучающих данных, транспонирование коэффициентов - AT, векторизованное представле

-

ние линейной функции, гиперпараметры для градиентного спуска (скорость обучения - , количество шагов).

KIRISH

Joriy yil mutaхassislar mahalliy

ta’lim tizimining kompleks tahlilini

o’tkazish natijasida oliy ta’lim tizimida

quyidagi kamchiliklar qayd etilgan:

Oliy ta’lim jarayonida nazariya va

amaliyot yaхlitligi ta’minlanmaganligi.

Talabalarning malakaviy amaliyotlarini

ishlab

chiqarish

korхonalarida

o’tkazish samarali tashkil etilmagani

oqibatida bitiruvchilarning aksariyat

qismi tayyor mutaхassis bo’lib chiqish

o’rniga, ishga joylashgandan keyin

qaytadan o’z kasbini, mutaхassisligini

o’rganayotganligi,

ta’lim

sifatini

nazorat qilish meхanizmi zamonaviy

talablarga javob bermasligi, ta’lim

muassasalarida malakali pedagog va

boshqaruv kadrlarining yetishmasligi,

хorijiy ta’lim muassasalari bilan

samarali hamkorlik yetarlicha yo’lga

qo’yilmaganligi, iqtisodiyot sohalarining

istiqbolda

kadrlar

tayyorlashga

buyurtmalarini

shakllantirish,

bitiruvchilarga qo’yiladigan malakaviy

talablarni ishlab chiqish, tarmoqqa zarur

bo’lgan mutaхassislarni tayyorlash

sifatini

ta’minlash

jarayonidagi

ishtiroki talabga javob bermaydi, oliy

ta’lim – ilm-fan – ishlab chiqarish

o’rtasida uzilishlar mavjud, lekin

integratsiya ta’minlanmaganligi va

shu kabi kamchiliklar aniqlangan.

Bu kabi kamchiliklarni bartaraf etish

mexanizmlarini ishlab chiqish bo‘yicha

bir qancha ishlar jadallik bilan olib

borilmoqda. Lekin masalaning ikkinchi

tarafi ham bor.

Ta’lim olish uchun kelayotgan

talabalarning aksariyat foizi tanlagan

yo‘nalishida

adashganini,

yoki

bo‘lmasam

ixtidori

va

qiziqishi

yo‘qligi takidlayotgani ayni haqiqat.

Bunday vaziyatda ta’lim berishning

eng zamonaviy usullarini qo‘llagan

holda darslarni tashkil qilsangiz

ham mukammal amaliyot o‘tash

mexanizmlarini ishlab chiqsangiz ham

bitirib chiqayotgan kadrlarning sifati

ko‘tarilmaydi va ko‘tarilmayotganini

ko‘rish mumkin.

Bu masalning tub mohiyatidan

kelib chiqib, maqolada oliy ta’lim

muassasalariga o‘qishga keladigan

ilk, ixtidorli va shu yo‘nalishga

qiziqishi yuqori talabalarni va ularni

sonini mashinali o‘qitish algoritmlari


background image

59

Alfraganus

xalqaro ilmiy jurnali

1 (6) 2024

yordamida avvaldan aniqlash algoritmi,

sun’iy intellekt moduli va dasturiy

vositasi taklif qilinadi.

Bu masalani yechishning sun’iy

intellekt modulini ishlab chiqish uchun

bir nech katta muammoli vaziyatlar

mavjud. Ya’niy ishlab chiqish ko‘p vaqt

sarf qiladigan parametrlar. Bular:

- maktab o‘quvchilarini baholash

mexanizmlarini o‘rganish;

- o‘quvchilar fanlardan olayotgan

baholari yo‘nalishlar kesimida tahlil

qilish;

- yo‘nalishlar

kesimida

o‘quvchilarni SoftSkills ko‘nikmalarini

aniqlash;

- yo‘nalishlar uchun muhim

fanlar ro‘yxatini shakillantirish;

- har bir talabani ushbu muhim

fanlardan olgan baholar jadvallarini

shakillantirish;

- yosh pisixologiyasi, ixtidorlari,

yutuqlarini inobatga olgan holda

jadvallarni shakillantirish;

- taklif etilayotgan sun’iy intellekt

modulini haqiqatga yaqin natijalar

berishi uchun yillar kesimida fanlardan

olgan baholar jadvallarini shakillantirish.

Shu kabi shakillantirilishi uzoq

muddatni talab etadigan, neyron

tarmoqni o‘qitish uchun zarur bo‘lgan

ma’lumotlar va ularning turli xil

ko‘rinishdagi parametrlarini aniqlash

taklif qilinaotgan modul uchun juda

ham zarur hisoblanadi.

O‘quvchilarning bilim saviyasi va

o‘zlashtirish darajasi joriy nazorat va

oraliq nazorat turlarini o‘tkazish orqali

baholanadi. Joriy nazorat — so‘rovlar,

nazorat ishlari yoki testlar tarzida

o‘quvchilarning bilimlari, ko‘nikma

va malakalari muntazam nazorat

qilinadi. Oraliq nazorat — chorak

tamom bo‘lganda va o‘quv dasturining

tegishli bo‘limi tugallangandan keyin

o‘quvchilarning bilimlari, ko‘nikma va

malakalarini baholash uchun amalga

oshiriladi. U yozma nazorat ishi yoki

testlar shaklida o‘tkaziladi. Ushbu

nazoratda foydalaniladigan materiallar

o‘quv fani o‘qituvchisi tomonidan

tayyorlanadi.

Har bir nazorat turi qanday

shaklda o‘tkazilishidan qat’i nazar, besh

ballik («5», «4», «3», «2», «1») usulda

butun sonlar yordamida baholanadi.

O‘quvchilarning nazorat turlari bo‘yicha

olgan ballari hamda choraklik (yarim

yillik) va yillik (yakuniy) baholari,

shuningdek, yillik reyting ko‘rsatkich

ballari sinf jurnaliga qayd etiladi.

O‘quvchining choraklik (yarim yillik),

yillik (yakuniy) baholari va yillik reyting

ko‘rsatkich ballari uning tabelida qayd

etiladi.

Chorak, yillik va yakuniy baholash

mexanizmlari:

Haftasiga

1

soatdan

ortiq

o‘qitiladigan o‘quv fanlari bo‘yicha:

• chorak davomida joriy va oraliq

nazoratlarda olingan ballar asosida

choraklik baho;

• choraklik baholar va bosqichli

nazoratda olingan ball asosida yillik

baho aniqlanadi.

Haftasiga 0,5 va 1 soat o‘qitiladigan

o‘quv fanlari bo‘yicha:

• yarim yil davomida joriy va

oraliq nazoratlarda olingan ballar

asosida yarim yillik baho;

• yarim yillik baholar va bosqichli

nazoratda olingan ball asosida yillik

baho aniqlanadi.

Bosqichli nazorat o‘tkazilmaydigan

o‘quv fanlari bo‘yicha yillik baholar

yarim oraliq va yillik baholarga qarab

belgilanadi.

Bitiruvchilar uchun choraklik

(yarim yillik) baholar asosida yillik baho,

shuningdek yakuniy nazoratda olingan

ball va yillik baho asosida yakuniy baho

aniqlanadi.

Yakuniy

davlat

attestatsiyasi

belgilanmagan o‘quv fanlari bo‘yicha

yillik baho yakuniy baho hisoblanadi.

Yakuniy baholar bitiruvchiga beriladigan

umumiy o‘rta ta’lim to‘g‘risidagi

shahodatnomaga qayd etiladi.

Texnika

yo‘nalishi

uchun

muhim fanlar va ularni rivojlantirish

parametrlari

Texnika yo‘nalishida o‘qishga


background image

60

1 (6) 2024

Alfraganus

xalqaro ilmiy jurnali

kirmoqchi bo‘lgan o‘quvchi asosan

quyidagi fanlardan yaxshi baholarga

o‘qishi kerak:

- matematika;

- fizika;

Ikkila fandan bitta o‘quvchini 10

yil davomida olgan baholar jadvali

shakillantirildi

(1-jadval).

Baholarning

yillar

kesimida

o‘zgarish

parametrlari

(variantlar) aniqlanib, katta hajimli

jadvallar shakillantirildi. Bu qisqa

ma’noda shuni anglatadiki, mashinali

o‘qitish

algoritmlarida

kiruvchi

va trening ma’lumotlarini tashkil

qiladi.

Bunday

ko‘p

parametrli

trening ma’lumotlarini qancha ko‘p

ko‘paytirish modulning aniq ishlashiga

va xatoliklarni kamayishiga olib keladi.

Misol tariqasida matematika fanidan

qo‘yilgan baholar jadvali shakillantirildi

hamda unga “faollik” va “yutuqlar”

parametrlari qo‘shildi. Chunki bu

parametrlar yo‘nalish uchun muhim

parameter qiymatlarini beradi.

Taklif qilinayotgan mashinaviy

o‘qitish modelini 1- jadval asosidagi

ma’lumotlar bilan to‘ldirilgan matritsa

bilan o‘qitib olindi.

Ushbu jadvalda bitta o‘quvchini

10 yil davomida matematika fanidan

olgan baholari yillar kesimida berilgan.

Faolligi, Yutuqlari va Natijalari ustunlari

sun’iy intellekt modulini o‘qitish va

xatoliklarni minimallashtirsh ya’niy

o‘quvchini

yo‘nalishini

aniqlash

noaniqligini

kamaytirish

uchun

yuqorida

takidlangan

kriteriyalar

asosida kiritildi. Taklif qilingan modul

qaror qabul qilish uchun minimal

trening ma’lumotlar jadvali (1- jadval)

32 qator yetarli bo‘ldi. Aslida jadval 384

ta qatordan iborat. O‘quvchini 1 fandan

10 yil davomida olgan baholarining turli

xil variantlari bilan boyitilgan. Kiruvchi

har ma’lumotlar terning ma’lumotlar

jadvalida mavjud bo‘lmasa, modul

dasturi natijasi chiqqandan keyin trening

ma’lumotlar jadvaliga qo‘shadi.

Maqolada taklif qilingan sun’iy

intellekt modulini qurishda mashinaviy

o‘qtish turlaridan biri nazoratli o‘qitish

(Supervised Learning) dan foydalanildi.

Mashinaviy o‘qitishda muhim qism,

kompyuterlarga ma’lumotlarni o‘rgatish

uchun algoritmlar yaratish va ulardagi

barcha o‘zgarishlarni kompyuter o‘z-

o‘zini o‘rgatib borishidir. Ma’lumotlar

to‘plamini tahlil qilish, mos keladigan

algoritmani tanlash, unga ma’lumotlarni

o‘rganish uchun foydalanish va

natijalarni tahlil qilish mashinaviy

o‘qitishda asosiy elementlardir [10]. Bu

soha quyidagi yirik yo‘nalishlarni o‘z

ichiga oladi:

Nazoratli o‘qitish (Supervised

Learning):

Bu usulda, tizimga ta’lim

maqsadida yaratilgan ma’lumotlar

beriladi va tizim bu ma’lumotlarni

o‘rganadi. Bu o‘qitish usuli o‘rganish

natijalarini bashorat qilishda va boshqa

dasturlar ishlatilishida juda ko‘p

maqsadlarda qo‘llaniladi. Ushbu turdagi

o‘qitish hozir ko‘plab masalalarni

yechishda qo‘llanilmoqda. Trening

ma’lumotlardan foydalangan holda

kompyuiter dasturi o‘qitiladi (traning).

Nazoratli o‘qitish ham 2 ga bo‘linadi:

1- Regressiya (Regraession);

2- Klassifikatsiyalash (Tasniflash -

classification).

Maktab bitiruvvchilarining ta’lim

yo‘nalishlarini aniqlash modeli qurish

uchun Regressiya o‘qitish turi tanlangan.

Nazoratsiz o‘qitish (Unsupervised

Learning):

Bu

usulda

tizimga

ma’lumotlar beriladi, lekin ularning

narxi (qiymati) aytilmagan. Tizim,

ma’lumotlarni tahlil qilib, o‘rganadi va

ularda o‘zgartirishlar qiladi. Usulning

maqsadi belgilanmagan ma’lumotlar

asosida modelni o‘rgatish hisoblanadi.

Qisman nazoratli o‘qitish (Semi-

supervised Learning):

Bu usulda

nazoratsiz va nazoratli o‘qitishning bir

qismi jamlanadi. Bu usul ma’lumotlar

qismini nazoratli, qolgan qismini esa

nazoratsiz qilib o‘rganishga ruxsat

beradi.

Kuchaytirilgan

o‘qitish

(Reinforcement Learning):

Bu usulda

tizim o‘zini o‘zgartirishlarni o‘rganadi,

kelajakdagi harakatlarni aniqlaydi va

natijalarning yaxshi bo‘lishi uchun o‘zini

o‘zgartiradi.

Model uchun tanlangan chiziqli

regressiya

mashinaviy

o‘qitish

sohasining eng boshlang‘ich usullaridan

biri bo‘lib, uning yordami bilan davomiy

bo‘lgan qiymatlar prognoz qilinadi.

Chuqur o‘qitish texnologiyalari

So‘nggi

paytlarda

chuqur

o‘qitish texnologiyalari har bir sohada

o‘z

imkoniyatlarini

kengaytirib

bormoqda. Masalan, turli xil murakkab

muammolarini hal qilishda keng

qo‘llanilmoqda.

Bunga

hisoblash

quvvatining oshishi va ko‘p sonli jadval

ko‘nishidagi ma’lumotlar, shuningdek,

bulutli

saqlashdan

foydalanish

imkoniyati yordam beradi [4].

Neyron

tarmoqlar

ta’limda

quyidagilarda qo‘llanilanilmoqda:

- murakkab

hisoblash

jarayonlarida;

- avvaldan prognozlash sifat

ehtimolini oshirishda;

- dars

davomatlarini

sifati,

haqqoniyligi va online monitoringini

amalga oshirishda;

- ma’lumotlarni tez qidirish va

sifatli ma’lumotlarni topishda.

Fanlardan

olingan

baholar

joylashgan, katta hajmli jadvallar va

ulardagi paramertlar asosida turli

murakkab muammolarni aniqlashda

neyron tarmoq texnologiyalarining ro‘li

juda ham katta. Ular oliy ta’lim tizimida

fan kontentlarini tayyorlash sifatini

oshirish, ko‘p yillar katta tajribaga ega

o‘qituvchilarning bilimlaridan turli

sun’iy o‘qituvchilarni yartish hamda

ulardan bir vaqtning o‘zida bir nechta

joylarda foydalanish imkoniyatlarini

beradi. Bu sun’iy neyron tarmoqlardan

foydalanish

tufayli

yaratilayotgan

ulkan imkoniyatlarning faqat kichik bir

qismidir.

Chuqur neyron tarmoqlar ta’lim

tizimida yillar davomida hal qilinishi

kerak bo‘lgan muammolarni soniyalarda

hal qiladi [1][2][3].

Ularning yordami bilan ta’lim

muassasalarida

darslar

sifatini,

talabalarni bilim olish tendensiyalarini

aniqlash va turli xil ta’limiy vaziyatlar va

boshqa ko‘plab muammolarni aniqlash

mumkin [7].

Sun’iy

neyron

tarmoqlardan

foydalanishning asosiy muammolaridan

biri bu - loyihalashtirilgan tarmoqning

arxitekturasini ham, natijalarning talab

qilinadigan aniqlik darajasi uchun zarur

bo‘lgan murakkabligini ham oldindan

aniqlashning

mumkin

emasligidir.

Agar talabaning bilim darajasi juda

yuqori bo‘lsa, arxitekturani yanada

murakkablashtirishga to‘g‘ri keladi.

Faqat bitta yashirin qatlamga ega

neyron tarmoqlar eng oddiy vazifalarni

bajarishi

mumkin.

Murakkabroq

muammolarni hal qilish uchun zarur

bo‘lgan yashirin qatlamlar sonining

ko‘payishi hisoblashga sarflanadigan

quvvatini va vaqtni oshishiga olib keladi.

Kompyuter

protsessorlarining

quvvatini oshirish va klasterlash

tizimlarini takomillashtirish orqali ushbu

muammoni hal qilish uchun ko‘plab

ilmiy tadqiqotlar olib borilmoqda [8].

Taklif qilingan modulning barcha

ma’lumotlar jadvali ikki qismga

bo‘lingan: o‘qitish va sinov.

Har bir jadvalning “Natija” ustuni

(1) mavjud va (0) mavjud emas bo‘lgan

fanlardan olinga baholardan iborat.

Barcha 100% ma‘lumotlar quyidagicha

bo‘linadi:

umumiy

ma‘lumotlar

to‘plamining 80% modelni o‘rgatish

uchun, qolgan 20% sinov uchun

ajratilgan. Quyida bir nechta neyron

tarmoqlarning

ishlashini

batafsil


background image

61

Alfraganus

xalqaro ilmiy jurnali

1 (6) 2024

ko‘rib chiqilgan (modellash Pythonda

Sklearn kutubxonasi yordamida amalga

oshiriladi).

Neyron tarmoqning asosiy

afzalliklaridan biri shundaki, u juda

murakkab funksiyalarni ifodalay oladi.

Agar faollashtirish funktsiyalari

qo‘llanilmasa, chiqish signali bir darajali

polinom bo‘lgan chiziqli funktsiya

bo‘ladi. Chiziqli tenglamalarni yechish

oson

bo‘lsada,

ular

cheklangan

murakkablik omiliga ega va shuning

uchun

ma‘lumotlardan

murakkab

funktsional

xaritalarni

o‘rganish

qobiliyati kamroq. Shunday qilib,

faollashtirish funktsiyasisiz neyron

tarmoq cheklangan imkoniyatlarga ega

chiziqli regressiya modeli bo‘ladi.

Eng

mashhur

faollashtirish

funktsiyalari quyidagilarni o‘z ichiga

oladi:

oladi:

funktsiya haqiqiy sonni oladi va uni

0 dan 1 gacha bo‘lgan songa aylantiradi.

Xususan, katta manfiy sonlar 0 ga, katta

musbat sonlar esa 1 ga aylanadi.

haqiqiy sonni [-1, 1] diapazoniga

siqib chiqaradi. Uning chiqishi nol

markazga ega. Bu sozlangan sigmasimon

tanh funktsiyasi ekanligini ko‘rish

mumkin.

-

Softmax

funktsiya 0 va 1

qiymatlari o‘rtasida o‘zgarib turadigan

natijani hosil qiladi va ehtimolliklar

yig‘indisi 1 ga teng.

-

ReLU (Rectified linear unit)

U

(

x

) = max(0,

x

) ffunksiyasini baholaydi.

Boshqacha qilib aytganda, faollashtirish

oddiygina nol chegaraga ega.

(

)

1 ,

0

, 0

a e

x

x x



= 

>



-

ELU (Exponential Linear Units)

x

bu yerda manfiy komponent

eksponensial

belgilar

yordamida

modellashtiriladi.

Chuqur o‘rganish, ayniqsa, yuzni

aniqlash, matnni tarjima qilish va ovozni

aniqlash kabi murakkab identifikatsiya

dasturlari uchun juda mos keladi[5][6].

Neyron tarmog’ining natijalari ko‘p

jihatdan parametrlarni tanlashga bog‘liq.

Ularni aniqlashning yagona umumiy

algoritmi yo‘q, shuning uchun hamma

narsa sinov va xatoliklar orqali amalga

oshiriladi. Eng maqbul qiymatlarni

aniqlash uchun turli qiymatlarga ega

bo‘lgan bir nechta turli xil variantlarni

amalga oshirish kerak.

Modelning matematik asoslari:

Model uchun chiziqli funksiya

formulasi:

T

Y

xA

b

=

+

Chiziqli regressiya bilan ishlaganda

ma’lumotlarni ifoda etuvchi eng yaxshi

regressiya chizig‘ini toppish kerak

bo‘ladi. Regeressiya chizig‘i (1) bilan

hisoblanganda XT hisoblanadi. Bunda

ushbu konstanta orqali prognoz qilingan

natija ma’lumotlar to‘plamida keltirilgan

haqiqiy qiymatga imkon qadar yaqin

bo‘lishi kerak. Ya’ni prognoz qilingan

qiymat va haqiqiy qiymat o‘rtasidagi

farq juda ham kam bo‘lishi kerak. Ushbu

farq xatolik deyiladi. Xatlikni aniqlash

uchun o‘rtacha kvadratik xatolik

funksiyasi tanlanadi.

2

1

1 ( ( ) )

m

i

i

i

j

f x

y

m

=

=

Regressiya

koeffitsentlarini

yangilash orqali xatolikni kamaytirish

mumkin. Shuning uchun (2) bilan

optimallashtirish amalga oshiriladi.

Modulning natijasi traning ma’lumotlar

jadvali (1- jadval)ning bir nechta

ustunlariga bog‘liqligi uchun ko‘p

o‘zgaruvchili

chiziqli

regressiyani

hisoblash bosqichlari amalga oshiriladi.

Buni amalga oshirish uchun bazi

belgilashlar kiritilgan:

m – ma’lumotlar to‘plami soni

(qatorlar soni);

n– o‘zgaruvchilar soni (ustunlar

soni);

x(

i

) – i qatordagi o‘zgaruvchilar;

x_

j

i

–i – qatordagi j- o‘zgaruvchi-

ning qiymati;

X – ma’lumotlar to‘plamidagi

o‘zgaruvchilarni ifoda etuvchi matritsa.

a

j

– j- koeffitsient;

A

barcha

koeffisientlarni

ifodalovchi matritsa yoki vektor. Uning

o‘lchami (n x 1);

y(

i

) – i- qatordagi prognoz

qilinadigan

belgining

ma’lumotlar

to‘plamidagi asl qiymati;

Y– progzon qilingan barcha y

(i)

larni

ifodalovchi birlik matritsa yoki vector.

Uning o‘lchami (1 x m);

f(x) – prognozni hisblash formulasi;

Jumladan, 1- jadvalda keltirilgan

ma’lumotlar to‘plamida:

m= 32, ya’ni ma’lumotlar to‘plami

soni (qatorlar soni) 32 ga teng;

n = 12, o‘zgaruvchilar soni (ustunlar

soni) 12 ga teng. Bunda o‘zgaruvchilarni

(1)

(3)

(4)

(5)

(6)

(2)

O‘quv yillari (10 ta ustun), Faolligi,

Yutuqlari ustunlari tashkil etadi;

x

(1)

– [5, 5, 5, 5, 5, 5, 5, 5, 5, 5, 0, 0,

1] ya’ni 1- qatorda keltirilgan

O’quv

yillari (10 ta ustun), Faolligi, Yutuqlari

ustunlarining qiymatlar to‘plami;

x

11

1

– 0, ya’ni 1- qatordagi 11-

o‘zgaruvchining (

Faolligi

) qiymati;

y

(1)

– 1, ya’ni 1- qatorda prognoz

qilinadigan

belgining

ma’lumotlar

to‘plamidagi asl qiymati;

α – o‘rganish darajasi (learning

rate);

davr – gradiyet tushishdagi

qadamlar soni (epochs);

1- jadvaldagi ma’lumotlar to‘plami-

ga ko‘p o‘zgaruvchili chiziqli regressiya

qo‘llanilsa, (1) formula quyidagi

ko‘rinishni oladi:

Ko‘p

o‘zgaruvchili

chiziqli

regressiya uchun gradiyent tusish

funksiyasini vektorlangan hisoblash

orqali qulaylashtiraldi [9]. Chiziqli

regressiyaning bu turida juda ko‘p

o‘zgaruvchilar qatnashganligi uchun

vektor hisob-kitoblar ancha qulay

hisoblanadi. Shning uchun vektor

hisoblarda qulaylik bo‘lishi uchun (3) ga

o‘zgarishlar kiritiladi:

4- formulani ma’lum bir ma’lumot-

lar to‘plami qatoriga moslashtirilsa,

quyidagi tenglik kelib chiqadi:

5- formulani ma’lumotlar jadvali

qatorlarining har biri uchun tadbiq

qilindi, bunda - 1- qatorning prognoz

qilingan qiymati, y

m

- m- qatorning

prognoz qilingan qiymati. Shu formula

elementlarini

matritsa

yordamida

ifodalaniladi. Prognozlar matritsasi:

5- formulada (m x 1) bo‘lgan

y

matritsa hosil bo‘ldi. O‘zgaruvchilar

matritsasa quyidagicha ko‘rinishda

bo‘ladi:


background image

62

1 (6) 2024

Alfraganus

xalqaro ilmiy jurnali

(m x (n+1)) o‘lchamli matritsa hosil

bo‘ldi. Bunda m- qatorlar soni, (n+1)-

o‘zgaruvchilar soni. Quyidagi formula

koeffitsiyentlar matritsasini anglatadi:

]

...

,

,

[

1

0

n

a

a

a

A

=

Vektor

ko‘paytirishlar

uchun

A vektorni transpozitsiyasi (qatorni

ustunlar bilan almashtirish) qilinadi va

quyidagi ko‘rinishda ifolaniladi:

Natijada o‘lchami ((n+1)x1) bo‘lgan

matritsa, ya’ni vektor hosil bo‘ladi.

Keyingi qadamda X matritsani AT

vektorga ko‘paytirish mumkin.

Ko‘p

o‘zgaruvchili

chiziqli

regressiyaning formulasini 10- formula-

da

keltirilgan

matritsalar

orqali

ifodalanildi. Uning qisqa ko‘rinishi

quyidagicha:

T

A

X

y

×

=

ˆ

11- formulada,

y

- o‘lchami (m x 1)

bo‘lgan vektor, X - o‘lchami (m x(n + 1))

bo‘lgan matritsa hamda A

T

- o‘lchami ((n

+ 1) x 1) bo‘lgan vektordir.

Gradiyent

tushish

fuksiyasi

yordamida

qiymat

funksiyasini

minimallashtiruvchi koeffitsiyentlarni

toppish uchun ko‘p o‘zgaruvchili

chiziqli regressiyaning qiymat funksiyasi

aniqlash, hisoblashlarga yanada qulay

bo‘lishi uchun 2- formula quyidagi

ko‘rinishi aniqlab olindi:

=

=

m

i

i

i

y

x

f

m

J

1

2

)

(

)

(

)

)

(

(

2

1

Gradiyent

tushishning

asosiy

maqsadi

qiymat

funksiyasini

minimallashtirish

bo‘lgani

uchun

yangi koeffitsiyent umumiy maqsadni

o‘zgartirmaydi.

13-formula yordamida qiymat

funksiya

aniqlab

olindi.

Uni

minimallashtrish uchun graadiyent

tushish formulalaridan foydalanamiz.

Bir

o‘zgaruvchili

regressiyadan

ma’lumki, funksiyani minimallashtirish

uchun

ushbu

funksiyaning

eng

minimal qiymatiga olib boruvchi

koeffitsiyentlarini topish kerak. Qiymat

funksiya koeffitsiyentlar yordamid

ifodalanilsa, quyida ko‘rinishga keladi:

14-formuladagi qiymat funksiyasi-

da (n+1) ta koeffitsiyent qatnashadi.

Bularni quyidagicha yozish mumkin:

]

...

,

,

[

1

0

n

a

a

a

A

=

Qiymat funksiyani eng minimal

qiymatini topish uchun 15- formulada

berilgan

koeffitsiyentlarni

optimal

qiymatini toppish kerak. Buning

uchun qiymat funksiyasidan har bir

koeffitsiyentga nisbatan hosila olinadi.

Olingan hosilalardan foydalanib, ko‘p

o‘zgaruvchili chiziqli regressiayning

gradiyent tushish formulasini hosil

qilamiz:

16-formulada dastlab koeffitsiyent-

larning qiymatlariga tasodifiy sonlar

( - o‘rganish darajasi) beriladi keyin

qadamda amallar bajariladi. Ushbu

amallar koeffitsiyentlarning optimal

qiymati topilguncha qaytariladi (davr

tugaguncha). Buning uchun davrning

har bir qadamida qiymat funksiya

hisoblab boriladi. Ushbu amallardagi

koeffitsiyentlarning qiymatlari parallel

ravishda yangilanadi.

Model berilganlar ni bir nechta

qatlamdan o‘tkazadi. Dastlab ko‘p

o‘zgaruvchili chiziqli regressiya hisob-

lanadi. Chunki 1- jadvalda keltirilgan

trening ma’lumotlari jadvalining “Faol-

ligi” va “Yutuqlari” ustuni qiymatlari

5 dan yuqori. Chiziqli regressiyadan

maqsad doimiy nishonni toppish,

Leogistik regressiyada esa diskret

(ma’lum bir turdagi) nishonlarni

prognoz qiladi.

Berilgan

trening

ma’lumotlar

to‘plami diskret qiymatli ma’lumotlar

to’plamiga tegishli bo‘lganligi uchun

taklif qilinayotgan modelda sigmoid

funksiyadan foydalnildi.

Sigmoid funkjsiya logistic funksiya

deb ham ataladi. Uning asosiy vazifasi

berilgan sonni (0,1) oraligdagi qiymatini

aniqlashdir. Mashinaviy o‘qitishda

esa sigmoid funksiya prognoz qilgan

qiymatni ehtimolini aniqlashda foyda-

laniladi. Uniq formulasi 17- formulada

berilgan.

z

e

z

+

=

1

1

)

(

σ

Bunda z – sigmoid funksiyaga

kiruvchi

o‘zgaruvchi.

Sigmoid

funksiyaning

logistic

regressiyaga

tadbiqi quyidagicha:

Bunda ikkita matritsa ko‘paytmasi

(X va A

T

) davomli, ya’ni chiziqli

qiymatlarni beradi. Undan diskret

qiymatlarni olish uchun sigmoid

funksiyani tadbiq qilish kerak.

Sigmoid funksiyasining logistic

regressiyadagi

to‘liq

formulasi

quyidagicha bo‘ladi:

Sigmoid funksiyaning qisqaroq

ko‘rinishi quyidagicha ifodalaniladi:

21-formulada

Z=XAT

deb hisob-

lanadi.

XULOSA

Maqolada maktab o‘quvchilarni 10

yil davomida o‘qigan fanlari va ulardan

olgan baholarining ta’lim yo‘nalishiga

ta’sirlari o‘rganilgan holda, trening

ma’lumotlar to’plami hosil qilindi.

Ushbu trening ma’lumotlar to‘plamidan

ko‘p o‘zgaruvchili chiziqli regressiya

(7)

(7)

(8)

(13)

(9)

(14)

(15)

(17)

(18)

(19)

(20)

(21)

(16)

(11)

(12)

(10)


background image

63

Alfraganus

xalqaro ilmiy jurnali

1 (6) 2024

funksiyasini kiruvchi qiymatlari sifatida

foydalanildi va tahli qilindi. Tahlillar

shuni ko‘rsatdiki, taklif qilingan

mashinaviy o‘qitish modelini qurishda

tanlangan qiymat funksiyasi va gradiyent

tushush jarayonlari berilgan qiymatlarga

eng

yaqin

qiymatlarni

prognoz

qilish imkoniyatlarini berdi. Ko‘p

o‘zgaruvchili chiziqli regressiyaning

formulasi berilgan qiymatlarga nisbatan

to‘g‘ri tashkil qilinganligi isbotlandi.

Prognoz qilgan qiymatni ehtimolini

aniqlashda

sigmoid

funksiyasidan

foydalaniladi.

Model

yordamida

tuzilgan algoritm va Python dasturlash

tili yordamida yaratilgan dasturiy vosita

10 yil davomida matematika va fizika

fanlaridan olingan baholar, o‘quvchining

faoligi va yutuqlari asosida maktab

bitiruvchilarini

kelajakda

qanday

ta’lim yo‘nalishida ta’lim olsa, yuqori

yutuqlarga

erishishi

mumkinligini

aniqlab berdi.

FOYDALANILGAN ADABIYOTLAR

1.

Zaynidinov H., Nurmurodov J., Qobilov S. Application of Machine Learning Methods for Signal Processing in

Piecewise-Polynomial Bases // Proceedings - 9th IEEE International Conference on Information Technology and Nanotechnology,

ITNT 2023, 2023

2.

Zaynidinov H., Singh M., Tiwary U.S., Singh D. Lecture Notes in Computer Science (including subseries Lecture

Notes in Artificial Intelligence and Lecture Notes in Bioinformatics) 2023, 13741 LNCS, страницы v–vi

3.

Zaynidinov H., Mallayev O. Parallel Algorithm for Calculating the Learning Processes of an Artificial Neural Network

// AIP Conference Proceedingsthis link is disabled, 2022, 2647, 050006 https://doi.org/10.1063/5.0104178

4.

Mallayev O.U. Parallellik paradigmasi asosida tibbiy tasvirlarga raqamli ishlov berishning parallel algoritmi//

Innovation in technology and science education conference. Volume 2 Issue 11. ISSN 2181-371X

5.

Zaynidinov H., Mallayev O., Kuchkarov M. Parallel algorithm for modeling temperature fields using the splines

method // 2021 IEEE International IOT, Electronics and Mechatronics Conference, IEMTRONICS 2021 - Proceedings, 2021,

9422645

6.

Zaynidinov H., Mallayev O., Nurmurodov J. Parallel Algorithm for Constructing a Cubic Spline on Multi-Core

Processors in a Cluster // 14th IEEE International Conference on Application of Information and Communication Technologies,

AICT 2020 - Proceedings, 2020, 9368680

7.

Zaynidinov H.N., Mallaev O.U., Anvarjonov B.B. A parallel algorithm for finding the human face in the image // IOP

Conference Series: Materials Science and Engineering, 2020, 862(5), 052004

8.

Волчек Ю.А., Шишко О.Н., Спиридонова О.С., Мохорт Т.В. Положение модели искусственной нейронной сети

в медицинских экспертных системах// Juvenis scientia. – 2017. – №. 9.

9.

Zaynidinov, H., Ibragimov, S., Tojiboyev, G., Nurmurodov, J. Efficiency of Parallelization of Haar Fast Transform

Algorithm in Dual-Core Digital Signal Processors // Proceedings of the 8th International Conference on Computer and

Communication Engineering, ICCCE 2021, 2021, страницы 7–12, 9467190

10. H. Zayniddinov, B. Rakhimov, G. Khalikova, A. Saidov Review and analysis of computer vision algorithms, AIP

Conference Proceedingsthis link is disabled, 2023, 2789, 050022

Библиографические ссылки

Zaynidinov H., Nurmurodov J., Qobilov S. Application of Machine Learning Methods for Signal Processing in Piecewise-Polynomial Bases // Proceedings - 9th IEEE International Conference on Information Technology and Nanotechnology, ITNT 2023, 2023

Zaynidinov H., Singh M., Tiwary U.S., Singh D. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics) 2023, 13741 LNCS, страницы v–vi

Zaynidinov H., Mallayev O. Parallel Algorithm for Calculating the Learning Processes of an Artificial Neural Network // AIP Conference Proceedingsthis link is disabled, 2022, 2647, 050006 https://doi.org/10.1063/5.0104178

Mallayev O.U. Parallellik paradigmasi asosida tibbiy tasvirlarga raqamli ishlov berishning parallel algoritmi// Innovation in technology and science education conference. Volume 2 Issue 11. ISSN 2181-371X

Zaynidinov H., Mallayev O., Kuchkarov M. Parallel algorithm for modeling temperature fields using the splines method // 2021 IEEE International IOT, Electronics and Mechatronics Conference, IEMTRONICS 2021 - Proceedings, 2021, 9422645

Zaynidinov H., Mallayev O., Nurmurodov J. Parallel Algorithm for Constructing a Cubic Spline on Multi-Core Processors in a Cluster // 14th IEEE International Conference on Application of Information and Communication Technologies, AICT 2020 - Proceedings, 2020, 9368680

Zaynidinov H.N., Mallaev O.U., Anvarjonov B.B. A parallel algorithm for finding the human face in the image // IOP Conference Series: Materials Science and Engineering, 2020, 862(5), 052004

Волчек Ю.А., Шишко О.Н., Спиридонова О.С., Мохорт Т.В. Положение модели искусственной нейронной сети в медицинских экспертных системах// Juvenis scientia. – 2017. – №. 9.

Zaynidinov, H., Ibragimov, S., Tojiboyev, G., Nurmurodov, J. Efficiency of Parallelization of Haar Fast Transform Algorithm in Dual-Core Digital Signal Processors // Proceedings of the 8th International Conference on Computer and Communication Engineering, ICCCE 2021, 2021, страницы 7–12, 9467190

H. Zayniddinov, B. Rakhimov, G. Khalikova, A. Saidov Review and analysis of computer vision algorithms, AIP Conference Proceedingsthis link is disabled, 2023, 2789, 05002

inLibrary — это научная электронная библиотека inConference - научно-практические конференции inScience - Журнал Общество и инновации UACD - Антикоррупционный дайджест Узбекистана UZDA - Ассоциации стоматологов Узбекистана АСТ - Архитектура, строительство, транспорт Open Journal System - Престиж вашего журнала в международных базах данных inDesigner - Разработка сайта - создание сайтов под ключ в веб студии Iqtisodiy taraqqiyot va tahlil - ilmiy elektron jurnali yuridik va jismoniy shaxslarning in-Academy - Innovative Academy RSC MENC LEGIS - Адвокатское бюро SPORT-SCIENCE - Актуальные проблемы спортивной науки GLOTEC - Внедрение цифровых технологий в организации MuviPoisk - Смотрите фильмы онлайн, большая коллекция, новинки кинопроката Megatorg - Доска объявлений Megatorg.net: сайт бесплатных частных объявлений Skinormil - Космецевтика активного действия Pils - Мультибрендовый онлайн шоп METAMED - Фармацевтическая компания с полным спектром услуг Dexaflu - от симптомов гриппа и простуды SMARTY - Увеличение продаж вашей компании ELECARS - Электромобили в Ташкенте, Узбекистане CHINA MOTORS - Купи автомобиль своей мечты! PROKAT24 - Прокат и аренда строительных инструментов