diff --git a/docs/_config.yml b/docs/_config.yml index 4114cc483..11f900b91 100644 --- a/docs/_config.yml +++ b/docs/_config.yml @@ -715,6 +715,7 @@ sr: ################################### Bengali #################################### bn: title: 'ডীপ লার্নিং' + chapters: - path: bn/week02/02.md sections: - path: bn/week02/02-1.md diff --git a/docs/bn/week02/02-1.md b/docs/bn/week02/02-1.md index 87d697030..6f9f43495 100644 --- a/docs/bn/week02/02-1.md +++ b/docs/bn/week02/02-1.md @@ -6,7 +6,7 @@ authors: Amartya Prasad, Dongning Fang, Yuxin Tang, Sahana Upadhya date: 3 Feb 2020 lang: bn translation-date: 11 Dec 2020 -translator: [Khalid Saifullah](https://github.com/khalidsaifullaah) +translator: Khalid Saifullah --- @@ -61,7 +61,7 @@ $$ #### কম্পিউটেশন গ্রাফগুলোর জন্য ব্লক ডায়াগ্রাম নোটেশন - **গ্রেডিয়েন্ট ডিসেন্ট এর ধারণা** - মনে কর একটি কুয়াশাচ্ছন্ন রাতে তুমি কোনো একটি পাহাড়ের উপর দাঁড়িয়ে আছো। যেহেতু তুমি পাহাড় থেকে নেমে নিচের জনবসতি এলাকায় যেতে চাও এবং তুমি চোঁখে তেমন কিছু দেখতে পাচ্ছনা তাহলে তুমি কি করবে? তুমি তোমার পায়ের কাছের সবচেয়ে নিম্নগামী যেই পথটি আছে সেদিকে পা বাড়াবে। গ্রেডিয়েন্ট ডিসেন্ট ও একই কাজ টি করে থাকে। - -অতএব আমাদের যদি এরকম ফাংশন এর চেইন থাকে নেটওয়ার্ক এ, তাহলে আমরা সবগুলো ডেরিভেটিভ ফাংশন ${h}$ এর গুণ এর মাধ্যমে ব্যাকপ্রোপাগেট করতে পারি একেবারে নিচে এসে পৌঁছানো পর্যন্ত। +অতএব আমাদের যদি এরকম ফাংশন এর চেইন থাকে নেটওয়ার্ক এ, তাহলে আমরা সবগুলো ডেরিভেটিভ ফাংশন ${h}$ এর গুণ এর মাধ্যমে ব্যাকপ্রোপাগেট করতে পারি একেবারে নিচে এসে পৌঁছানো পর্যন্ত। @@ -422,7 +422,7 @@ out = model(image) |
চিত্র ৮: একটি ফাংশনাল মডিউল এর মধ্য দিয়ে ব্যাকপ্রপ
| -- ভেক্টর ফাংশন এর জন্য চেইন রুল ব্যবহার করে +- ভেক্টর ফাংশন এর জন্য চেইন রুল ব্যবহার করে $$ z_g : [d_g\times 1] @@ -443,7 +443,7 @@ out = model(image) এটি $\frac{\partial c}{\partial{z_f}}$ এর চেইন রুল ব্যবহার করে বেসিক ফর্মুলা। লক্ষ্য কর, একটি ভেক্টর এর সাপেক্ষে একটি স্কেলার ফাংশন এর গ্রেডিয়েন্ট হচ্ছে একটি ভেক্টর যার আকার যেই ভেক্টর এর সাপেক্ষে ডিফারেন্সিয়েট করা হয়েছে। নোটেশনগুলোকে সামঞ্জস্যপূর্ণ করার জন্য, এটি কলাম ভেক্টর এর বদলে একটি রো ভেক্টর। -- জ্যাকোবিয়ান ম্যাট্রিক্স +- জ্যাকোবিয়ান ম্যাট্রিক্স $$ \left(\frac{\partial{z_g}}{\partial {z_f}}\right)_{ij}=\frac{(\partial {z_g})_i}{(\partial {z_f})_j} @@ -458,7 +458,7 @@ out = model(image) ### মাল্টি-স্টেজ গ্রাফের এর মধ্য দিয়ে ব্যাকপ্রপ - একটি নিউরাল নেটওয়ার্ক এর মধ্যে অনেকগুলো মডিউল এর সারি চিন্তা করো চিত্র ৯ এর মতো। @@ -468,7 +468,7 @@ Consider a stack of many modules in a neural network as shown in Figure 9. --> ব্যাকপ্রপ এলগোরিদমটির জন্য আমাদের গ্রেডিয়েন্ট এর ২ টি সেট প্রয়োজন - একটি স্টেটগুলোর সাপেক্ষে (নেটওয়ার্ক এর প্রতিটি মডিউল) এবং আরেকটি হচ্ছে ওয়েইটগুলোর সাপেক্ষে (কোনো একটি নির্দিষ্ট মডিউল এর সকল প্যারামিটার)। তাই প্রতিটি মডিউল দুটি করে জাকোবিয়ান ম্যাট্রিক্স যুক্ত। আমরা আবারো ব্যাকপ্রপ এর জন্য চেইন রুল ব্যবহার করতে পারি। -- ভেক্টর ফাংশন এর জন্য চেইন রুল ব্যবহার করে +- ভেক্টর ফাংশন এর জন্য চেইন রুল ব্যবহার করে $$ \frac{\partial c}{\partial {z_k}}=\frac{\partial c}{\partial {z_{k+1}}}\frac{\partial {z_{k+1}}}{\partial {z_k}}=\frac{\partial c}{\partial {z_{k+1}}}\frac{\partial f_k(z_k,w_k)}{\partial {z_k}} @@ -479,6 +479,6 @@ Consider a stack of many modules in a neural network as shown in Figure 9. --> $$ - মডিউলটির জন্য ২ টি জ্যাকোবিয়ান ম্যাট্রিক্স - - একটি $z[k]$ এর সাপেক্ষে - - একটি $w[k]$ এর সাপেক্ষে + - একটি $z[k]$ এর সাপেক্ষে + - একটি $w[k]$ এর সাপেক্ষে diff --git a/docs/bn/week02/02.md b/docs/bn/week02/02.md index 94786c3e7..3e975ec6e 100644 --- a/docs/bn/week02/02.md +++ b/docs/bn/week02/02.md @@ -3,19 +3,19 @@ lang-ref: ch.02 title: Week 2 lang: bn translation-date: 13 Dec 2020 -translator: [Khalid Saifullah](https://github.com/khalidsaifullaah) +translator: Khalid Saifullah --- -## প্রথম ভাগ +## প্রথম ভাগ আমরা প্যারামেট্রাইজড মডেল দিয়ে শুরু করবো এই অংশে, এরপর আমরা লস ফাংশন নিয়ে আলোচনা করবো। আমরা আরো দেখবো গ্রেডিয়েন্ট বেসড-মেথড গুলো কি এবং কিভাবে সেগুলো প্রচলিত নিউরাল নেটওয়ার্ক এ ব্যবহৃত হয়। সবশেষে আমরা পাইটর্চ দিয়ে একটি নিউরাল নেটওয়ার্ক বানাবো এবং ব্যাকপ্রোপাগেশন এর আরো জেনেরালাইজড ফর্ম দিয়ে এই অংশটি শেষ করবো। -## দ্বিতীয় ভাগ +## দ্বিতীয় ভাগ আমরা এই অংশে ব্যাকপ্রোপাগেশন এর একটি পূর্ণ উদাহরণ দিয়ে শুরু করবো এবং জ্যাকোবিয়ান ম্যাট্রিক্স এর ডাইমেনশন নিয়ে আলোচনা করবো। এরপর আমরা নিউরাল নেটওয়ার্ক এর সাধারণ কিছু মডিউল দেখবো এবং সেগুলোর গ্রেডিয়েন্ট ও বের করবো, এছাড়াও সংক্ষিপ্ত আকারে softmax এবং logsoftmax নিয়েও কথা বলবো। এই অংশের আরেকটি বিষয় হচ্ছে ব্যাকপ্রোপাগেশনের কিছু প্র্যাক্টিক্যাল ট্রিক্স।