-
Notifications
You must be signed in to change notification settings - Fork 2.2k
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
- Loading branch information
Showing
2 changed files
with
28 additions
and
1 deletion.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,27 @@ | ||
--- | ||
lang: bn | ||
lang-ref: ch.01 | ||
title: সপ্তাহ ১ | ||
translation-date: 28 October 2020 | ||
translator: Taniya Seth | ||
--- | ||
|
||
|
||
## লেকচার ভাগ এ | ||
|
||
<!-- We discuss the motivation behind deep learning. We begin with the history and inspiration of deep learning. Then we discuss the history of pattern recognition and introduce gradient descent and its computation by backpropagation. Finally, we discuss the hierarchical representation of the visual cortex. | ||
--> | ||
আমরা ডীপ লার্নিং-এর প্রেরণা সম্পর্কে আলোচনা করি। আমরা ডীপ লার্নিং-এর ইতিহাস এবং অনুপ্রেরণা কে দিয়ে আরম্ভ করি। এর পর আমরা প্যাটার্ন রিকগনিশন-এর ইতিহাস সম্পর্কে আলোচনা করি এবং গ্রেডিয়েন্ট ডিসেন্ট ও ব্যাকপ্রোপাগেশন দিয়ে তার গণনার সঙ্গে পরিচয়ে করি। শেষে, আমরা ভিজুয়াল কর্টেক্স-এর হিয়ারার্কিকল রিপ্রেজেন্টেশন সম্পর্কে আলোচনা করি। | ||
|
||
|
||
## লেকচার ভাগ বী | ||
|
||
<!-- We first discuss the evolution of CNNs, from Fukushima to LeCun to AlexNet. We then discuss some applications of CNN's, such as image segmentation, autonomous vehicles, and medical image analysis. We discuss the hierarchical nature of deep networks and the attributes of deep networks that make them advantageous. We conclude with a discussion of generating and learning features/representations. --> | ||
প্রথমত আমরা CNN-এর বিবর্তন নিয়ে আলোচনা করি, ফুকুশিমা থেকে LeCun, এবং LeCun থেকে AlexNet। এর পর আমরা CNN-এর কয়েকটি এপ্লিকেশন যেমন চিত্র বিভাজন, স্বয়ংক্রিয় যানবাহন, এবং মেডিকেল চিত্র বিশ্লেষণ এইগুলির বিষয়ে আলোচনা করি। আমরা ডীপ নেটওয়ার্কগুলির শ্রেণিবিন্যাসিক প্রকৃতি এবং তাদের বৈশিষ্ট্যগুলির বিষয়ে আলোচনা করি যা সেগুলিকে সুবিধাজনক করে তোলে। আমরা ফীচার/রিপ্রেজেন্টেশন লার্নিং এবং জেনারেশন সম্পর্কিত আলোচনা দিয়ে শেষ করি। | ||
|
||
|
||
## ব্যবহারিক পাঠ্যক্রম | ||
|
||
<!-- We discuss the motivation for applying transformations to data points visualized in space. We talk about Linear Algebra and the application of linear and non-linear transformations. We discuss the use of visualization to understand the function and effects of these transformations. We walk through examples in a Jupyter Notebook and conclude with a discussion of functions represented by neural networks. | ||
--> | ||
স্পেসে দৃশ্যমান ডাটা পয়েন্টগুলিতে রূপান্তর প্রয়োগের অনুপ্রেরণা নিয়ে আমরা আলোচনা করি। আমরা লিনিয়ার আলজেব্রা এবং লিনিয়ার ও নন -লিনিয়ার রূপান্তরের প্রয়োগ সম্পর্কে কথা বলি। আমরা রূপান্তরগুলির কার্যকারিতা এবং প্রভাবগুলি বোঝার জন্য ভিজ্যুয়ালাইজেশনের ব্যবহার নিয়ে আলোচনা করি। আমরা একটি Jupyter Notebook-এ উদাহরণ গুলির অন্বেষণ করি, এবং নিউরাল নেটওয়ার্কগুলি দ্বারা প্রতিনিধিত্ব করা ফাংশনগুলির আলোচনার সাথে শেষ করি। |