
138
SHAXSNI HARAKATLARI ORQALI IDENTIFIKATSIYA QILISHDAGI NEYRON
TARMOQLARI YORDAMIDAGI YONDASHUVLAR.
A.R.Axatov
Samarqand davlat universiteti Xalqaro hamkorlik ishlari bo‘yicha prorektor, professor
I.Q.Ximmatov
Samarqand davlat universiteti tayanch doktaranti
Annotatsiya
.
Neyron tarmoqlariga asoslangan tizimlarda Perseptron sensorli sirt va
chiziqli tasvirlash masallaridan foydalanib neyron tarmoqlari algoritmlari orqali kiritilayotgan
yurish harakatlari tasvirlarini bashoratlash yordamida shaxsni identifikatsiya qilish masalasini
hal qilishning modellari orqali parametrlashtirish, hamda ishlov berish oqimida ishonchli
ma‘lumotlarga ega bo‘lish va xatti-harakatni baholash masalasiga e‘tibor qaratilgan
Kalit so‘zlar
:
Neyron tarmoqlar, Perseptron va chiziqli tasniflash, identifikatsiyalash,
xatti-harakat, bashoratlash, semantik jihatdan to'g'ridan-to'g'ri talqin qilinadigan miqdorlar.
Bugungi kunda sun'iy intellekt va neyron tarmoqlari rivojlanib bormoqda va ularning
bugungi yadrosi bo'lgan mashina va chuqur o'rganish usullari ko'plab tijorat va tadqiqot
sharoitlarida muvaffaqiyatli qo'llanilmoqda. Ular keng miqyosli ma'lumotlarni tahlil qilish,
bashorat qilish va tasniflash uchun kuchli vositalardir, ayniqsa kata hajmdagi ma'lumotlarga ega
bo‘lgan muhitlarda va identifikatsiyalovchi ilovalarga muvaffqaiyatli yo'l topishni boshladilar.
Biz birinchi navbatda chuqur va takrorlanuvchi neyron tarmoqlarga, ularning statistika bilan
aloqasiga va ular ortidagi asosiy tamoyillarga e'tibor qaratgan holda mashinani o'rganish usullari
haqida umumiy ma'lumotlar asosida identifikatsiyalashning modellarini ko‘rib chiqamiz[1].
Neyron tarmoqlarga asoslangan tizimlarning o'ziga xos xususiyati shundaki, ular
o'rganish va moslasha olishi mumkin. Perseptron sensorli sirtdan (1A-rasm) bir yoki bir nechta
chiqish bloklariga ulangan, ular kirish harakatlarini bir nechta sinflardan biriga, masalan,
shaxsning qo‘l harakatini tanib olish uchun belgilashi kerak. To'g'ri tasniflash yoki kirish
namunalarini chiqish sinflari bilan taqqoslash uchun kiritilayotgan barcha namunaning har bir
harakatida kirish va chiqish birliklari o'rtasidagi ulanish og'irliklarini iterativ ravishda
moslashtiradigan o'rganish qoidasini ishlab chiqilishi lozim. Shunda haqiqiy natijalar kerakli
darajaga yaqinlashadi. Chiqishlarda esa o'rganish qoidasi haqiqiy va kerakli natijalar o'rtasidagi
kvadratik og'ishlar yig'indisini minimallashtirish uchun ishlaydi[2].
Perseptron va chiziqli tasniflash masalalarida esa ishlab chiqilgan perseptron birinchi
oldinga uzatiladigan neyron tarmoqlardan biri bo‘lib xizmaat qiladi. U kirish birliklari
qatlamidan kirishlar yoki "bashoratchilar"
x
i
taqdim etiladi, ular
w
i
ulanish og'irliklari bilan bir
yoki bir nechta chiqish birliklariga proyeksiyalanadi. Chiqish birligi kiritilgan ma'lumotlarning
vaznli yig'indisini hosil qiladi va uni ko'rsatilgandek chegara bilan taqqoslaydi. Agar vaznli
yig'indi kattaroq bo'lsa, kirish bir sinfga, aks holda boshqa sinfga tayinlanadi, ikki o'lchovli
xususiyat maydoni uchun tasvirlanganidek sinf a'zoligiga ko'ra rangli kodlangan vektor nuqtalari
bilan bir nechta chiqish birliklari ko'p sinfli muammolarni ko'rsatishga imkon beradi.

139
1-rasm. Kiruvchi va chiquvchi ma‘lumotlarni Perseptron va chiziqli tasniflash
.
Vaznli yig'indi kirish xususiyatlarining chiziqli birikmalari va sinflarni ajratuvchi sirt har
doim perseptron uchun chiziq, tekislik yoki giper tekislik bo'ladi(1-A-rasm). Bunday holda,
sinflar shunday bo'ladiki, ularni perseptron bilan ifodalangan chiziqli tasniflagich ko'rsatilgan
chiziq bilan ajratib bo'lmaydi. Perseptronning kirish qatlami va chiqish birligi orasiga bitta
"yashirin birlik" qo'shilishi 1-B-rasmdagi XOR muammosini keltirib chiqaradi bu yerdan chinlik
jadvalida keltirilganidak nomutanosiblik vujidga keladi. Grafikdagi raqamlar ulanish og'irliklari
va faollashtirish chegaralarini bildiradi va yashirin blok o'zining yuqori chegarasi (
θ
= 1.5
)
tufayli faqat ikkala kirish bloki yoqilganda (
x1 = x2 = 1
) faollashadi va chiqish blokini kattaligi
bilan o'chiradi, bu esa bazadagi harakatga unchalik mos kelmaydigan harakat chizmalarini
keying qatlamga o‘tkazmasdan chiqarib tashlashga olib keladi .
Perseptronning jiddiy hisoblash cheklovlarini aniqlash va ishlab chiqish 1-rasmda
ko'rsatilgan. Keyinchalik kirish va chiqish bosqichi o'rtasida birliklarning birdan bir nechta
"yashirin qatlamlari"ni kiritish orqali bu cheklovlarni yengib o'tish mumkinligini ko‘ramiz (1-C-
rasm). "Universal yaqinlashish teoremasi"ga asosan yashirin birliklarning faqat bir qatlami bilan
oldinga yo'naltirilgan neyron tarmoqlar mohiyatan istalgan xaritalashni amalga oshirishi
mumkinligini ko‘ramiz. G'oya shundan iboratki, har qanday kirish namunasi birinchi navbatda
tarmoq orqali chiqish bosqichiga tarqaladi, bu erda haqiqiy chiqish kerakli chiqishi bilan
taqqoslanadi va bu ikkisi o'rtasidagi nomuvofiqlikka proporsional xato signali keyin orqaga
tarqaladi va har bir juft qatlam orasidagi og'irliklarni sozlash uchun tarmoq boshidan yana qayta
tekshirinshi boshlashga olib keladi[3].
Bunga yo'l qo'ymaslik uchun, yuqorida qayd etilgan teoremalar bizga bir nechta yashirin
qatlamlar aslida kerak emasligini tasdiqlaydi, yani biz foydalanadigan neyron tarmoq
arxitekturasini juda ko'p yashirin qatlamlarga ega bo'lgan neyron tarmoqlari tadqiqotiga xalaqit
bergan bo'lishi mumkinligi ko‘orishimiz mumkin. Bu esa Jefri Xintonning neyron tarmoq
tadqiqotining "uchinchi to'lqini" ni ishga tushirishga yordam beradi va katta tuzilmalarni
qatlamlarni oldingi harakati orqali qanday qilib o'rgatish mumkinligini ko'rsatadi (2D-rasm).
Yashirin qatlamlari juda ko'p bo'lgan neyron tarmoqlar bugungi kunda "Deep Neural
Network"lar deb ataladi (2B-rasm) va bir qatlamli ulanishlarni oldindan tayyorlash va ishga
tushirishning samarali protseduralari hisoblash vositalarining kuchli o'sishi, va katta hajmdagi
ma'lumotlarning mavjudligi, bunday tarmoqlarni o'qitishni ya'ni, chuqur o'rganishni samarali
amalga oshirish mumkin bo'lgan narsadir. Ularning muvaffaqiyatli boshqa sabablari ham bor,
masalan, ketma-ket qatlamlar bo'ylab ko'proq va batafsil tasvirlarni yaratishga moyilligi.
K
iruv
chi

140
2-rasm. Ketma-ket tarmoq qatlamlari bo‘yalab neyron tarmoqlari orqali harqakat
chiziqlarini tahlil qilish
Turli xil neyron tarmoq arxitekturalari va faollashtirish funksiyalari ko'p o'zgaruvchan
umumiy chiziqli modelning har bir chiqish birinchi birlik uchun ta'kidlanganidek, kirish
xususiyatlarining og'irlashtirilgan yig'indisidan va ba'zi bir noto'g'ri atama
w
oi
bilan
hisoblanadi[4].
Shunday qilib, avtomatik dekodllangan-neyron tarmoq chiqishi sifatida (Wdecode
dekodlash og'irliklari yordamida) o'zining kirish namunasini (Wencode og'irliklarini kodlash
orqali prognoz qilingan) qayta ishlab chiqarishi kerak va shu bilan uning yashirin qatlamida
kirishning pastki o'lchamli ichki tasvirini hosil qiladi bu esa bizga kameradan olingan
tasvirlarnibazadagi tasvirlar bilan solishtirishda qatlamlarga ajratgan holda harakat
trayektoriyasini solishtirish imkoniytini taqdim etadi.
Birinchidan, oldinga potentsial yo'l sifatida, biofizik jihatdan olingan o'rtacha belgilangan
hududagi modellari neyronlarning katta populyatsiyalarining xatti-harakatlarini jamlash
parametrlarni baholash uchun oraliq bosqichni ta'minlashi mumkin. Biofizik tarmoqlar singari,
bu modellar ham semantik jihatdan to'g'ridan-to'g'ri talqin qilinadigan miqdorlar, harakat
qiymatlari, tanlov ehtimoli va boshqalar bilan ifodalanadi. Ushbu modellar mexanik tushuncha
va xatti-harakatni hisoblash asosida baholash imkonini beradi.
Ikkinchidan, biologik jihatdan to'g'ridan-to'g'ri talqin qilinadigan modellarni qurish
o'rniga, biz biologik yoki psixologik konteksda o'qitilgan neyron tarmoqlardagi birlik-faoliyat va
qatlam-faoliyatlarni solishtirishimiz mumkin. Bu chuqur neyron tarmoq maqsadlarini bashorat
qilish uchun foydalanadigan yuqori darajadagi xususiyatlar haqida tushunchalarni berishi
mumkin. Haqiqatan ham, tabiiy tasvirlar bo'yicha o'qitilgan birlashtirilgan neyron tarmoqlar
qo‘shimcha ishlov berish oqimida mavjud bo'lgan harakatli jihatdan ishonchli tasavvurlarni
o'rganilishiga erishamiz.
Foydalanilgan adabiyotlar
K
iruv
chi

141
1.
Ximmatov I.Q. Advantages of biometrik gait recognition. Important factors in evaluation of
gait analysis systems. SamDU Ilmiyi axborotnomasi. ISSN 2091-5446,
2020-yil, 3-son (121),
[104-107].b
2.
A.R. Akhatov, O.I.Djumanov. Mechanisms of images visualization in the system of micro-
objects recognition and classification. In proceedings of the Fourth World Conference on
Intelligent Systems for Industrial Automation, 21-22 November, 2006. – Tashkent, Uzbekistan.
– 206-210 p
3.
Daniel Durstewitz, Georgia Koppe, Andreas Meyer-Lindenberg. Deep neural networks in
psychiatry. Molecular Psychiatry volume 24, pages1583–1598 (2019).
4.
Krizhevsky A, Sutskever I, Hinton GE. Imagenet classification with deep convolutional
neural networks.
Proceedings of the Advances in Neural Information Processing Systems
.
2012;1097–105.
MINIMUM WIDTH TREES AND PRIM ALGORITHM USING ARTIFICIAL
INTELLIGENCE
Akhatov Akmal Rustamovich
Samarkand State University Vice-Rector for International Cooperation.
Ulugmurodov Shokh Abbos Bakhodir ugli
Assistant of the Department of Computer Science and Programming,
Jizzakh branch of the National University of Uzbekistan
Abstract:
To date, many algorithms have been developed that can be calculated using
the Prim algorithm. Artificial intelligence-based methods are a significant drawback. Using
artificial intelligence is a very convenient method of minimizing residual trees (MST) to find the
shortest path graph optimally.
Keywords.
phonetics, annotation, segmentation, ai, Minimum spanning tree
.
Minimum Spanning trees: A common problem in communications networks and circuit
design is that of connecting together a set of nodes (communication sites or circuit components)
by a network of minimal total length (where length is the sum of the lengths of connecting wires.
We assume that the network is undirected. To minimize the length of the connecting network, it
never pays to have any cycles since we could break any cycle without destroying connectivity
and decrease the total length). Since the resulting connection graph is connected, undirected, and
acyclic, it is a free tree.[2]
The computational problem is called the minimum spanning tree problem (MST for
short). More formally, given a connected, undirected graph G (V, E), a spanning tree is an
acyclic subset of edges T C E that connects all the vertices together. Assuming that each edge (u,
v of G has a numeric weight or cost, w u, v , (may be zero or negative we define the cost of a
spanning tree T to be the sum of edges in the spanning tree.
A minimum spanning tree (MST) is a spanning tree of minimum weight. Note that the
minimum spanning tree may not be unique, but it is true that if all the edge weights are distinct,
then the MST will be distinct (this is a rather subtle fact, which we will not prove . The figure
below shows three spanning trees for the same graph, where the shaded rectangles indicate the
edges in the spanning tree. The one on the left is not a minimum spanning tree, and the other two
are an interesting observation is that not only do the edges sum to the same value, but in fact the
same set of edge weights appear in the two MST's.[4]