Facebook Pixel
Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Hands-On Machine Learning with Scikit-Learn and TensorFlow

Hands-On Machine Learning with Scikit-Learn and TensorFlow

توسط Aurélien Géron 2017 450 صفحات
4.55
2k+ امتیازها
گوش دادن
گوش دادن

نکات کلیدی

1. شبکه‌های عصبی بازگشتی (RNNs) پردازش و پیش‌بینی توالی‌ها را ممکن می‌سازند

پیش‌بینی آینده کاری است که شما همیشه انجام می‌دهید، چه زمانی که جمله‌ی دوستتان را تمام می‌کنید یا بوی قهوه را در صبحانه پیش‌بینی می‌کنید.

RNNها توالی‌ها را پردازش می‌کنند. برخلاف شبکه‌های عصبی پیش‌خور، RNNها دارای اتصالاتی هستند که به عقب اشاره می‌کنند و به آن‌ها اجازه می‌دهند اطلاعات مربوط به ورودی‌های قبلی را حفظ کنند. این ویژگی آن‌ها را برای وظایفی که شامل توالی‌های داده هستند، مناسب می‌سازد، مانند:

  • پردازش زبان طبیعی (مثلاً ترجمه، تحلیل احساسات)
  • تحلیل سری‌های زمانی (مثلاً قیمت سهام، پیش‌بینی آب و هوا)
  • تشخیص گفتار
  • پردازش ویدئو

RNNها می‌توانند ورودی‌ها و خروجی‌های با طول متغیر را مدیریت کنند. این انعطاف‌پذیری به آن‌ها اجازه می‌دهد با توالی‌هایی با طول دلخواه کار کنند، که آن‌ها را برای وظایفی که اندازه‌ی ورودی یا خروجی ممکن است متغیر باشد، مانند ترجمه‌ی ماشینی یا تبدیل گفتار به متن، ایده‌آل می‌سازد.

2. RNNها از سلول‌های حافظه برای حفظ وضعیت در طول گام‌های زمانی استفاده می‌کنند

بخشی از یک شبکه عصبی که مقداری وضعیت را در طول گام‌های زمانی حفظ می‌کند، سلول حافظه (یا به سادگی سلول) نامیده می‌شود.

سلول‌های حافظه هسته‌ی RNNها هستند. این سلول‌ها به شبکه اجازه می‌دهند اطلاعات را در طول زمان حفظ کند و به آن امکان می‌دهند توالی‌ها را به طور مؤثر پردازش کند. وضعیت یک سلول در هر گام زمانی تابعی از:

  • وضعیت قبلی آن
  • ورودی فعلی

انواع سلول‌های حافظه:

  • سلول‌های RNN پایه: ساده اما مستعد مشکلات ناپدید شدن/انفجار گرادیان
  • سلول‌های LSTM (حافظه‌ی بلندمدت کوتاه): پیچیده‌تر، بهتر در گرفتن وابستگی‌های بلندمدت
  • سلول‌های GRU (واحد بازگشتی دروازه‌دار): نسخه‌ی ساده‌شده‌ی LSTM، اغلب با عملکرد مشابه

انتخاب نوع سلول به وظیفه‌ی خاص و محدودیت‌های محاسباتی پروژه بستگی دارد.

3. باز کردن RNNها در طول زمان امکان آموزش کارآمد را فراهم می‌کند

باز کردن شبکه در طول زمان، همان‌طور که در شکل 14-1 (راست) نشان داده شده است.

باز کردن، تجسم و محاسبه‌ی RNN را ساده می‌کند. وقتی یک RNN باز می‌شود، شبیه یک شبکه عصبی پیش‌خور به نظر می‌رسد، با هر گام زمانی به عنوان یک لایه نمایش داده می‌شود. این نمایش باز شده:

  • درک جریان اطلاعات در شبکه را آسان‌تر می‌کند
  • امکان محاسبه‌ی کارآمد با استفاده از عملیات ماتریسی را فراهم می‌کند
  • کاربرد پس‌انتشار برای آموزش را تسهیل می‌کند

دو رویکرد اصلی برای باز کردن:

  1. باز کردن استاتیک: ایجاد یک شبکه باز شده با طول ثابت
  2. باز کردن دینامیک: استفاده از تابع dynamic_rnn() در TensorFlow برای مدیریت توالی‌های با طول متغیر به طور کارآمدتر

باز کردن دینامیک به دلیل انعطاف‌پذیری و کارایی حافظه‌اش، به ویژه هنگام کار با توالی‌های بلند یا با طول متغیر، معمولاً ترجیح داده می‌شود.

4. مدیریت توالی‌های با طول متغیر نیاز به تکنیک‌های خاص دارد

اگر توالی‌های ورودی طول‌های متغیر داشته باشند (مثلاً مانند جملات) چه می‌شود؟

پدینگ و ماسکینگ. برای مدیریت توالی‌های ورودی با طول متغیر:

  • توالی‌های کوتاه‌تر را با صفرها پر کنید تا با طول بلندترین توالی مطابقت داشته باشند
  • از یک ماسک استفاده کنید تا نشان دهید کدام عناصر پدینگ هستند و باید نادیده گرفته شوند

مشخص کردن طول توالی. هنگام استفاده از تابع dynamic_rnn() در TensorFlow:

  • یک پارامتر sequence_length ارائه دهید تا طول واقعی هر توالی را مشخص کنید
  • این به RNN اجازه می‌دهد فقط بخش‌های مربوط به هر توالی را پردازش کند

مدیریت خروجی. برای توالی‌های خروجی با طول متغیر:

  • از یک توکن پایان توالی (EOS) برای علامت‌گذاری پایان توالی تولید شده استفاده کنید
  • هر خروجی پس از توکن EOS را نادیده بگیرید

این تکنیک‌ها به RNNها اجازه می‌دهند توالی‌هایی با طول‌های متغیر را به طور کارآمد پردازش و تولید کنند، که برای بسیاری از کاربردهای دنیای واقعی مانند ترجمه‌ی ماشینی یا تشخیص گفتار حیاتی است.

5. پس‌انتشار در طول زمان (BPTT) برای آموزش RNNها استفاده می‌شود

برای آموزش یک RNN، ترفند این است که آن را در طول زمان باز کنید (مانند کاری که همین الان انجام دادیم) و سپس به سادگی از پس‌انتشار معمولی استفاده کنید.

BPTT پس‌انتشار را به توالی‌ها گسترش می‌دهد. این فرآیند شامل:

  1. گذر رو به جلو: محاسبه‌ی خروجی‌ها برای همه‌ی گام‌های زمانی
  2. محاسبه‌ی خطا با استفاده از یک تابع هزینه
  3. گذر به عقب: انتشار گرادیان‌ها به عقب در طول زمان
  4. به‌روزرسانی پارامترهای مدل با استفاده از گرادیان‌های محاسبه‌شده

چالش‌ها با BPTT:

  • ناپدید شدن گرادیان‌ها: گرادیان‌ها می‌توانند برای توالی‌های بلند بسیار کوچک شوند، که یادگیری وابستگی‌های بلندمدت را دشوار می‌کند
  • انفجار گرادیان‌ها: گرادیان‌ها می‌توانند به صورت نمایی رشد کنند، که منجر به آموزش ناپایدار می‌شود

راه‌حل‌ها:

  • برش گرادیان: محدود کردن بزرگی گرادیان‌ها برای جلوگیری از انفجار
  • استفاده از انواع سلول‌های پیشرفته‌تر مانند LSTM یا GRU
  • BPTT کوتاه‌شده: محدود کردن تعداد گام‌های زمانی برای انتشار گرادیان

درک و رفع این چالش‌ها برای آموزش مؤثر RNNها در وظایف دنیای واقعی حیاتی است.

6. RNNها می‌توانند به وظایف مختلف توالی مانند طبقه‌بندی و پیش‌بینی سری‌های زمانی اعمال شوند

بیایید یک RNN را برای طبقه‌بندی تصاویر MNIST آموزش دهیم.

طبقه‌بندی توالی. RNNها می‌توانند برای طبقه‌بندی کل توالی‌ها استفاده شوند:

  • مثال: تحلیل احساسات متن
  • فرآیند: توالی را از طریق RNN تغذیه کنید و از وضعیت نهایی برای طبقه‌بندی استفاده کنید

پیش‌بینی سری‌های زمانی. RNNها در پیش‌بینی مقادیر آینده در یک سری زمانی برتری دارند:

  • مثال: پیش‌بینی قیمت سهام، پیش‌بینی آب و هوا
  • فرآیند: RNN را آموزش دهید تا مقدار(های) بعدی را با توجه به یک توالی از مقادیر گذشته پیش‌بینی کند

طبقه‌بندی تصویر با RNNها. اگرچه بهینه نیست، RNNها می‌توانند برای طبقه‌بندی تصویر استفاده شوند:

  • فرآیند: هر تصویر را به عنوان یک توالی از ردیف‌ها یا ستون‌ها در نظر بگیرید
  • عملکرد: به طور کلی توسط شبکه‌های عصبی کانولوشنی (CNNها) برای وظایف تصویری بهتر عمل می‌کنند

تنوع RNNها به آن‌ها اجازه می‌دهد به طیف گسترده‌ای از مشکلات مبتنی بر توالی اعمال شوند، که آن‌ها را به ابزاری ارزشمند در جعبه‌ابزار یک متخصص یادگیری ماشینی تبدیل می‌کند.

7. معماری‌های پیشرفته RNN محدودیت‌های RNNهای پایه را برطرف می‌کنند

لایه‌ی خروجی کمی خاص است: به جای محاسبه‌ی ضرب نقطه‌ای ورودی‌ها و بردار وزن، هر نورون مربع فاصله‌ی اقلیدسی بین بردار ورودی و بردار وزن خود را خروجی می‌دهد.

سلول‌های LSTM و GRU. این انواع سلول‌های پیشرفته مشکل ناپدید شدن گرادیان را برطرف می‌کنند:

  • LSTM: از دروازه‌ها برای کنترل جریان اطلاعات و حفظ وابستگی‌های بلندمدت استفاده می‌کند
  • GRU: نسخه‌ی ساده‌شده‌ی LSTM با پارامترهای کمتر

RNNهای دوطرفه. توالی‌ها را در هر دو جهت جلو و عقب پردازش می‌کنند:

  • زمینه را از هر دو گام زمانی گذشته و آینده می‌گیرند
  • برای وظایفی مانند ترجمه‌ی ماشینی و تشخیص گفتار مفید هستند

معماری‌های رمزگذار-رمزگشا. شامل دو RNN هستند:

  • رمزگذار: توالی ورودی را به یک نمایش با اندازه‌ی ثابت پردازش می‌کند
  • رمزگشا: توالی خروجی را از نمایش رمزگذاری‌شده تولید می‌کند
  • کاربردها: ترجمه‌ی ماشینی، خلاصه‌سازی متن

مکانیسم‌های توجه. به مدل اجازه می‌دهند بر روی بخش‌های مربوط به ورودی تمرکز کند:

  • عملکرد را بر روی توالی‌های بلند بهبود می‌بخشند
  • امکان مدیریت بهتر وابستگی‌های بلندمدت را فراهم می‌کنند

این معماری‌های پیشرفته به طور قابل توجهی قابلیت‌های RNNها را گسترش داده‌اند و به آن‌ها اجازه می‌دهند وظایف مبتنی بر توالی پیچیده‌تر را با عملکرد بهبود یافته انجام دهند.

آخرین به‌روزرسانی::

FAQ

What's Hands-On Machine Learning with Scikit-Learn and TensorFlow about?

  • Practical Guide: The book offers a hands-on approach to learning machine learning, focusing on practical applications using Scikit-Learn and TensorFlow.
  • Comprehensive Coverage: It covers a wide range of topics, including both traditional machine learning and deep learning techniques.
  • Real-World Applications: The author, Aurélien Géron, includes numerous examples and exercises to apply concepts in real-world scenarios.

Why should I read Hands-On Machine Learning with Scikit-Learn and TensorFlow?

  • Beginner-Friendly: Designed for readers with varying levels of expertise, making it accessible for beginners while providing depth for advanced users.
  • Up-to-Date Content: Includes the latest developments in machine learning and deep learning, ensuring relevance and currency.
  • Hands-On Exercises: Each chapter includes exercises that reinforce learning, allowing readers to apply what they’ve learned immediately.

What are the key takeaways of Hands-On Machine Learning with Scikit-Learn and TensorFlow?

  • Foundational Concepts: Readers will grasp essential machine learning concepts, including supervised and unsupervised learning, model evaluation, and feature engineering.
  • Practical Implementation: The book provides guidance on implementing machine learning models using Scikit-Learn and TensorFlow, with code examples and detailed explanations.
  • Advanced Techniques: Introduces advanced topics like deep learning, reinforcement learning, and autoencoders, equipping readers with a broad skill set.

What are the best quotes from Hands-On Machine Learning with Scikit-Learn and TensorFlow and what do they mean?

  • "Machine Learning is the science (and art) of programming computers so they can learn from data.": Highlights the dual nature of machine learning as both a scientific discipline and a creative process.
  • "Don’t jump into deep waters too hastily.": Advises mastering foundational concepts before diving into advanced topics like deep learning.
  • "Garbage in, garbage out.": Emphasizes the critical importance of data quality in machine learning.

How does Hands-On Machine Learning with Scikit-Learn and TensorFlow define overfitting and underfitting?

  • Overfitting: Occurs when a model learns the training data too well, capturing noise and outliers, leading to poor generalization on unseen data.
  • Underfitting: Happens when a model is too simple to capture the underlying patterns in the data, resulting in poor performance on both training and test sets.
  • Balancing Act: The book provides strategies to achieve the right balance between overfitting and underfitting.

What is the difference between supervised and unsupervised learning in Hands-On Machine Learning with Scikit-Learn and TensorFlow?

  • Supervised Learning: Involves training a model on labeled data, where the desired output is known, used for tasks like classification and regression.
  • Unsupervised Learning: Deals with unlabeled data, where the model identifies patterns or groupings without prior knowledge of the outcomes.
  • Applications: Supervised learning is used when labels are available, while unsupervised learning is used for exploratory data analysis.

How does Hands-On Machine Learning with Scikit-Learn and TensorFlow explain the concept of feature engineering?

  • Definition: Feature engineering is the process of selecting, modifying, or creating new features from raw data to improve model performance.
  • Importance: Good features can significantly enhance model accuracy, while poor features can lead to suboptimal performance.
  • Techniques: Discusses techniques like normalization, encoding categorical variables, and creating interaction features.

What is the curse of dimensionality as explained in Hands-On Machine Learning with Scikit-Learn and TensorFlow?

  • High-Dimensional Space Challenges: Refers to phenomena that arise when analyzing data in high-dimensional spaces, making data points sparse.
  • Impact on Model Performance: Models may struggle to generalize due to overfitting, as training instances become sparse and distant.
  • Need for Dimensionality Reduction: Emphasizes the importance of dimensionality reduction techniques to combat these issues.

How does Hands-On Machine Learning with Scikit-Learn and TensorFlow approach neural networks?

  • Introduction to Neural Networks: Provides a foundational understanding, explaining their structure and how they learn from data.
  • Deep Learning Frameworks: Emphasizes the use of TensorFlow for building and training neural networks, with practical examples.
  • Training Techniques: Discusses techniques like backpropagation and optimization algorithms for effective training.

What are the main types of neural networks discussed in Hands-On Machine Learning with Scikit-Learn and TensorFlow?

  • Multi-Layer Perceptrons (MLPs): Foundational networks consisting of multiple layers of neurons, capable of learning complex functions.
  • Convolutional Neural Networks (CNNs): Designed for processing grid-like data such as images, utilizing convolutional layers.
  • Recurrent Neural Networks (RNNs): Tailored for sequential data, allowing information to persist across time steps.

What is transfer learning and how is it implemented in Hands-On Machine Learning with Scikit-Learn and TensorFlow?

  • Concept of Transfer Learning: Involves reusing a pre-trained model on a new but related task, reducing training time and data requirements.
  • Implementation Steps: Outlines steps like freezing lower layers and replacing the output layer to fit the new task.
  • Practical Examples: Provides examples of using a model trained on a large dataset to classify a smaller dataset.

How does Hands-On Machine Learning with Scikit-Learn and TensorFlow address the vanishing and exploding gradients problem?

  • Understanding the Problem: Vanishing gradients occur when gradients become too small, while exploding gradients happen when they become excessively large.
  • Solutions Provided: Discusses solutions like appropriate weight initialization and activation functions that do not saturate.
  • Batch Normalization: Highlights Batch Normalization as a technique to combat these problems, allowing for stable training.

نقد و بررسی

4.55 از 5
میانگین از 2k+ امتیازات از Goodreads و Amazon.

کتاب یادگیری ماشین عملی با Scikit-Learn و TensorFlow به عنوان یک مقدمه عالی برای یادگیری ماشین به طور گسترده‌ای تحسین شده است. خوانندگان از پوشش جامع، مثال‌های عملی و رویکرد متعادل آن به نظریه و کاربرد قدردانی می‌کنند. این کتاب به خاطر توضیحات واضح، تمرین‌های عملی و استفاده از چارچوب‌های محبوب مورد ستایش قرار گرفته است. بسیاری آن را بهترین منبع برای مبتدیان و یادگیرندگان متوسط در زمینه یادگیری ماشین می‌دانند. در حالی که برخی بخش‌های یادگیری عمیق را چالش‌برانگیز می‌یابند، اکثر افراد توافق دارند که این کتاب یک مرجع ارزشمند برای هر کسی است که به یادگیری ماشین علاقه‌مند است.

درباره نویسنده

اورلیان ژرون یکی از چهره‌های بسیار محترم در زمینه‌ی یادگیری ماشین و هوش مصنوعی است. با تجربه‌ی گسترده در صنعت، از جمله نقش‌هایی در گوگل و دیگر شرکت‌های برجسته‌ی فناوری، ژرون دیدگاه‌های عملی خود را به نوشته‌هایش می‌آورد. تخصص او در مدیریت محصول و مهندسی هوش مصنوعی در رویکرد کتابش مشهود است که بر کاربردهای دنیای واقعی تأکید دارد. توانایی ژرون در توضیح مفاهیم پیچیده به شیوه‌ای قابل فهم، او را به نویسنده‌ای محبوب در جامعه‌ی یادگیری ماشین تبدیل کرده است. آثار او به دلیل ایجاد تعادل بین مبانی نظری و پیاده‌سازی عملی شناخته شده‌اند و برای مبتدیان و متخصصان با تجربه ارزشمند هستند.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Mar 1,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
50,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Settings
Appearance
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →