Searching...
فارسی
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Deep Learning with Python

Deep Learning with Python

توسط François Chollet 2017 350 صفحات
4.57
1k+ امتیازها
گوش دادن
Try Full Access for 7 Days
Unlock listening & more!
Continue

نکات کلیدی

1. یادگیری عمیق، مهندسی ویژگی‌ها را خودکار می‌کند

با یادگیری عمیق، شما تمام ویژگی‌ها را در یک مرحله یاد می‌گیرید و نیازی به مهندسی آن‌ها به‌صورت دستی ندارید.

یادگیری سنتی در مقابل یادگیری عمیق. مهندسی ویژگی، که به‌صورت دستی نمایندگی‌های داده را ایجاد می‌کند، زمانی مهم‌ترین مرحله در یادگیری ماشین بود. یادگیری عمیق این فرآیند را خودکار می‌کند و ویژگی‌ها را به‌طور مستقیم از داده‌ها از طریق لایه‌های متوالی نمایندگی یاد می‌گیرد. این امر جریان کار را ساده می‌کند و اغلب منجر به عملکرد بهتر، به‌ویژه در حوزه‌های پیچیده‌ای مانند شناسایی تصویر و گفتار می‌شود.

یادگیری انتها به انتها. مدل‌های یادگیری عمیق به‌صورت انتها به انتها آموزش داده می‌شوند، به این معنی که تمام لایه‌ها به‌طور مشترک یاد گرفته می‌شوند، نه به‌صورت متوالی. این امکان را فراهم می‌کند که نمایندگی‌های پیچیده و انتزاعی با تجزیه آن‌ها به سری‌های طولانی از فضاهای میانی (لایه‌ها) یاد گرفته شوند؛ هر فضا تنها یک تغییر ساده از فضای قبلی فاصله دارد.

جریان کار ساده‌شده. با خودکار کردن مهندسی ویژگی، یادگیری عمیق فرآیند یادگیری ماشین را تسهیل می‌کند. خطوط لوله پیچیده چندمرحله‌ای با مدل‌های ساده و واحد جایگزین می‌شوند و نیاز به مداخله و تخصص انسانی در طراحی ویژگی‌ها کاهش می‌یابد.

2. تنسورها پایه‌گذار شبکه‌های عصبی هستند

به‌طور کلی، تمام سیستم‌های یادگیری ماشین فعلی از تنسورها به‌عنوان ساختار داده پایه خود استفاده می‌کنند.

تنسورها به‌عنوان ظرف‌های داده. تنسورها آرایه‌های چندبعدی هستند که به‌عنوان ساختار داده بنیادی در یادگیری عمیق عمل می‌کنند. آن‌ها ماتریس‌ها را به تعداد دلخواه ابعاد تعمیم می‌دهند و امکان نمایندگی مقادیر اسکالر (تنسورهای 0 بعدی)، بردارها (تنسورهای 1 بعدی)، ماتریس‌ها (تنسورهای 2 بعدی) و داده‌های با ابعاد بالاتر را فراهم می‌کنند.

ویژگی‌های کلیدی تنسور:

  • تعداد محور (رتبه): تعداد ابعاد تنسور.
  • شکل: یک تاپل از اعداد صحیح که ابعاد هر محور را توصیف می‌کند.
  • نوع داده: نوع داده ذخیره‌شده در تنسور (مثلاً float32، int8).

مثال‌های واقعی تنسور. تنسورها برای نمایندگی انواع مختلف داده‌ها، از جمله داده‌های برداری (تنسورهای 2 بعدی)، داده‌های سری زمانی (تنسورهای 3 بعدی)، تصاویر (تنسورهای 4 بعدی) و ویدیوها (تنسورهای 5 بعدی) استفاده می‌شوند. درک نحوه‌ی دستکاری تنسورها برای کار با شبکه‌های عصبی بسیار مهم است.

3. شبکه‌های عصبی از طریق نزول گرادیان یاد می‌گیرند

ترفند بنیادی در یادگیری عمیق این است که از این امتیاز به‌عنوان سیگنال بازخورد برای تنظیم مقدار وزن‌ها به‌طور جزئی، در جهتی که امتیاز ضرر برای مثال فعلی کاهش یابد، استفاده شود.

فرآیند یادگیری. شبکه‌های عصبی با تنظیم وزن‌های خود بر اساس سیگنال بازخورد از یک تابع ضرر یاد می‌گیرند. این فرآیند شامل محاسبه گرادیان ضرر نسبت به پارامترهای شبکه و به‌روزرسانی وزن‌ها در جهت مخالف گرادیان است.

بهینه‌سازی نزول گرادیان:

  • تابع ضرر: عدم تطابق بین پیش‌بینی‌های شبکه و اهداف واقعی را اندازه‌گیری می‌کند.
  • بهینه‌ساز: الگوریتم پس‌انتشار را برای تنظیم وزن‌ها بر اساس امتیاز ضرر پیاده‌سازی می‌کند.
  • پس‌انتشار: الگوریتم مرکزی در یادگیری عمیق که مشتقات را به‌طور مؤثر برای محاسبه گرادیان‌ها زنجیره‌ای می‌کند.

نزول گرادیان تصادفی (SGD). وزن‌ها به‌طور جزئی در جهت صحیح تنظیم می‌شوند و امتیاز ضرر کاهش می‌یابد. این حلقه آموزشی است که پس از تکرار به تعداد کافی (معمولاً ده‌ها تکرار بر روی هزاران مثال) مقادیر وزنی را به‌دست می‌دهد که تابع ضرر را به حداقل می‌رساند.

4. Keras توسعه یادگیری عمیق را ساده می‌کند

Keras، یکی از محبوب‌ترین و سریع‌ترین فریم‌ورک‌های یادگیری عمیق، به‌عنوان بهترین ابزار برای شروع با یادگیری عمیق به‌طور گسترده‌ای توصیه می‌شود.

API سطح بالا. Keras یک فریم‌ورک یادگیری عمیق پایتون است که یک API کاربرپسند برای ساخت و آموزش شبکه‌های عصبی ارائه می‌دهد. این فریم‌ورک فرآیند توسعه را با ارائه بلوک‌های ساختاری سطح بالا و انتزاع عملیات سطح پایین ساده می‌کند.

انعطاف‌پذیری در پس‌زمینه. Keras از چندین موتور پس‌زمینه، از جمله TensorFlow، Theano و CNTK پشتیبانی می‌کند و به توسعه‌دهندگان این امکان را می‌دهد که به‌راحتی بین آن‌ها بدون تغییر کد خود جابجا شوند. این ماژولار بودن انعطاف‌پذیری را فراهم می‌کند و امکان آزمایش با پلتفرم‌های محاسباتی مختلف را می‌دهد.

ویژگی‌های کلیدی Keras:

  • پروتوتایپ‌سازی آسان مدل‌های یادگیری عمیق
  • پشتیبانی داخلی از شبکه‌های کانولوشنی و بازگشتی
  • پشتیبانی از معماری‌های شبکه دلخواه

5. بیش‌برازش نیاز به نظارت و کاهش دقیق دارد

دقت مجموعه آزمایش به 97.8% می‌رسد—که این مقدار به‌طور قابل توجهی کمتر از دقت مجموعه آموزشی است. این فاصله بین دقت آموزشی و دقت آزمایش نمونه‌ای از بیش‌برازش است.

چالش بیش‌برازش. بیش‌برازش زمانی رخ می‌دهد که یک مدل در داده‌های آموزشی خود عملکرد خوبی داشته باشد اما در داده‌های جدید و نادیده‌گرفته شده ضعیف عمل کند. این یک مشکل مرکزی در یادگیری ماشین است و نظارت و کاهش بیش‌برازش برای اطمینان از تعمیم خوب بسیار مهم است.

تکنیک‌های مقابله با بیش‌برازش:

  • کاهش اندازه شبکه: کاهش تعداد لایه‌ها یا واحدها در هر لایه.
  • اضافه کردن منظم‌سازی وزن: اعمال منظم‌سازی L1 یا L2 برای جریمه کردن وزن‌های بزرگ.
  • اضافه کردن دراپ‌اوت: به‌طور تصادفی واحدها را در حین آموزش حذف کنید تا از وابستگی شبکه به اتصالات خاص جلوگیری شود.
  • افزایش داده: تولید داده‌های آموزشی بیشتر از نمونه‌های آموزشی موجود، با افزایش نمونه‌ها از طریق تعدادی از تغییرات تصادفی که تصاویر قابل‌باور تولید می‌کنند.

تنش جهانی. مدل ایده‌آل مدلی است که در مرز بین کم‌برازش و بیش‌برازش قرار دارد؛ بین ظرفیت کم و ظرفیت زیاد.

6. شبکه‌های کانولوشنی در وظایف بینایی کامپیوتری برتری دارند

دلیل اصلی اینکه یادگیری عمیق به‌سرعت رشد کرد این است که عملکرد بهتری در بسیاری از مسائل ارائه می‌دهد.

الگوهای محلی. شبکه‌های عصبی کانولوشنی (convnets) به‌طور خاص برای پردازش داده‌های تصویری طراحی شده‌اند. آن‌ها در یادگیری الگوهای محلی و سلسله‌مراتب فضایی بسیار مؤثر هستند و برای وظایفی مانند طبقه‌بندی تصویر و شناسایی اشیاء بسیار کارآمدند.

ناپایداری ترجمه. شبکه‌های کانولوشنی الگوهایی را یاد می‌گیرند که ناپایدار به ترجمه هستند، به این معنی که می‌توانند یک الگو را بدون توجه به موقعیت آن در تصویر شناسایی کنند. این کارایی داده یک مزیت کلیدی برای پردازش تصویر است.

عملیات کلیدی:

  • کانولوشن: ویژگی‌های محلی را از تصویر ورودی استخراج می‌کند.
  • ماکس پولینگ: نقشه‌های ویژگی را کاهش می‌دهد تا پیچیدگی محاسباتی را کاهش دهد و سلسله‌مراتب فضایی را القا کند.

7. شبکه‌های پیش‌آموزش‌دیده انتقال یادگیری قدرتمندی را ارائه می‌دهند

مدل‌های یادگیری عمیق آموزش‌دیده قابل استفاده مجدد هستند: به‌عنوان مثال، می‌توان یک مدل یادگیری عمیق آموزش‌دیده برای طبقه‌بندی تصویر را در یک خط لوله پردازش ویدیو قرار داد.

استفاده از دانش موجود. شبکه‌های پیش‌آموزش‌دیده مدل‌هایی هستند که بر روی مجموعه‌های داده بزرگ، مانند ImageNet، آموزش دیده‌اند. این شبکه‌ها ویژگی‌های عمومی را یاد گرفته‌اند که می‌توانند برای طیف وسیعی از وظایف بینایی کامپیوتری مفید باشند.

استخراج ویژگی. یکی از روش‌های استفاده از یک شبکه پیش‌آموزش‌دیده استخراج ویژگی‌ها از تصاویر جدید با استفاده از پایه کانولوشنی مدل پیش‌آموزش‌دیده است. این ویژگی‌ها سپس می‌توانند به یک طبقه‌بند جدید که از ابتدا آموزش داده شده است، داده شوند.

تنظیم دقیق. تکنیک دیگر این است که شبکه پیش‌آموزش‌دیده را با آزاد کردن برخی از لایه‌های بالایی آن و آموزش مشترک آن‌ها با طبقه‌بند جدید تنظیم دقیق کنید. این امکان را به مدل می‌دهد تا نمایندگی‌های یادگرفته‌شده خود را به وظیفه خاصی که در دست دارد، تطبیق دهد.

8. RNNها وابستگی‌های داده‌های توالی را ضبط می‌کنند

یک شبکه عصبی بازگشتی (RNN) همان اصل را اتخاذ می‌کند، هرچند در یک نسخه بسیار ساده‌شده: این شبکه‌ها توالی‌ها را با تکرار از طریق عناصر توالی پردازش می‌کنند و یک حالت حاوی اطلاعات مربوط به آنچه که تاکنون دیده‌اند، حفظ می‌کنند.

پردازش داده‌های توالی. شبکه‌های عصبی بازگشتی (RNNها) برای پردازش داده‌های توالی، مانند متن و سری‌های زمانی طراحی شده‌اند. آن‌ها یک حالت داخلی را حفظ می‌کنند که در حین تکرار از طریق توالی به‌روزرسانی می‌شود و به آن‌ها این امکان را می‌دهد که وابستگی‌های بین عناصر را ضبط کنند.

لایه‌های LSTM و GRU. لایه‌های LSTM (حافظه بلندمدت و کوتاه‌مدت) و GRU (واحد بازگشتی گیت‌دار) انواع پیشرفته‌ای از RNNها هستند که مشکل گرادیان ناپدیدشونده را حل می‌کنند و به آن‌ها این امکان را می‌دهند که وابستگی‌های بلندمدت در توالی‌ها را یاد بگیرند.

کاربردها:

  • پردازش زبان طبیعی: تحلیل احساسات، ترجمه ماشینی
  • تحلیل سری‌های زمانی: پیش‌بینی آب و هوا، پیش‌بینی قیمت سهام

9. وکتوریزه کردن متن امکان انجام وظایف NLP را فراهم می‌کند

تمام ورودی‌ها و اهداف در یک شبکه عصبی باید تنسورهای داده‌های اعشاری (یا در موارد خاص، تنسورهای اعداد صحیح) باشند.

از متن به اعداد. شبکه‌های عصبی تنها می‌توانند داده‌های عددی را پردازش کنند، بنابراین متن باید به تنسورها تبدیل شود. این فرآیند که به آن وکتوریزه کردن متن گفته می‌شود، شامل توکن‌سازی متن و ارتباط دادن وکتورهای عددی با توکن‌های تولیدشده است.

کدگذاری یک‌داغ. یک روش پایه‌ای که در آن هر کلمه با یک وکتور باینری که در ایندکس مربوط به کلمه 1 و در سایر ایندکس‌ها 0 است، نمایندگی می‌شود.

وکتورهای کلمه. یک تکنیک پیشرفته‌تر که در آن کلمات با وکتورهای متراکم و کم‌بعدی که از داده‌ها یاد گرفته شده‌اند، نمایندگی می‌شوند. این وکتورها روابط معنایی بین کلمات را ضبط می‌کنند.

10. مدل‌های تولیدی محتوای جدید ایجاد می‌کنند

پتانسیل هوش مصنوعی برای تقلید از فرآیندهای تفکر انسانی فراتر از وظایف غیرفعال مانند شناسایی اشیاء و عمدتاً وظایف واکنشی مانند رانندگی است. این پتانسیل به فعالیت‌های خلاقانه نیز گسترش می‌یابد.

یادگیری توزیع‌های داده. مدل‌های تولیدی قادر به یادگیری توزیع آماری زیرین یک مجموعه داده هستند. پس از آموزش، آن‌ها می‌توانند از این توزیع نمونه‌برداری کنند تا نقاط داده جدیدی تولید کنند که شبیه داده‌های اصلی باشند.

خودرمزگذارهای واریاسیون (VAEs). VAEs یک فضای نهان ساختاریافته یاد می‌گیرند که امکان ویرایش تصویر از طریق وکتورهای مفهومی را فراهم می‌کند. آن‌ها برای وظایفی مانند تعویض چهره و انتقال سبک بسیار مناسب هستند.

شبکه‌های مولد متخاصم (GANها). GANها شامل یک تولیدکننده و یک تمایزدهنده هستند که در برابر یکدیگر رقابت می‌کنند. تولیدکننده یاد می‌گیرد که تصاویر واقعی ایجاد کند، در حالی که تمایزدهنده یاد می‌گیرد که بین تصاویر واقعی و تولیدشده تمایز قائل شود.

11. یادگیری عمیق در استدلال محدودیت‌هایی دارد

به‌طور کلی، هر چیزی که نیاز به استدلال داشته باشد—مانند برنامه‌نویسی یا اعمال روش علمی—برنامه‌ریزی بلندمدت و دستکاری داده‌های الگوریتمی برای مدل‌های یادگیری عمیق خارج از دسترس است، هرچقدر هم که داده به آن‌ها بدهید.

شناسایی الگو در مقابل استدلال. مدل‌های یادگیری عمیق در شناسایی الگوها عالی هستند اما در انجام وظایفی که نیاز به استدلال، انتزاع و برنامه‌ریزی بلندمدت دارند، مشکل دارند. آن‌ها توانایی مدیریت فرضیات و سازگاری با موقعیت‌های کاملاً جدید را ندارند.

عمومی‌سازی محلی در مقابل عمومی‌سازی شدید. مدل‌های یادگیری عمیق عمومی‌سازی محلی را نشان می‌دهند، به این معنی که می‌توانند به موقعیت‌های جدیدی که مشابه داده‌های آموزشی آن‌ها هستند، سازگار شوند. با این حال، آن‌ها قادر به عمومی‌سازی شدید نیستند، که شامل سازگاری سریع با موقعیت‌های کاملاً جدید با استفاده از داده‌های جدید کم یا بدون داده است.

نیاز به رویکردهای جدید. برای غلبه بر این محدودیت‌ها، سیستم‌های هوش مصنوعی آینده ممکن است نیاز به ادغام ماژول‌های الگوریتمی داشته باشند که قابلیت‌های استدلال و انتزاع را فراهم کنند، علاوه بر ماژول‌های هندسی مورد استفاده در یادگیری عمیق.

12. یادگیری مداوم ضروری است

به‌روز ماندن در یک حوزه سریع‌السیر.

تکامل سریع. حوزه یادگیری عمیق به‌طور مداوم در حال تکامل است و الگوریتم‌ها، تکنیک‌ها و کاربردهای جدید به‌سرعت در حال ظهور هستند. ضروری است که با آخرین تحولات به‌روز بمانید تا در این حوزه مؤثر باشید.

منابع برای یادگیری مداوم:

  • Kaggle: تمرین بر روی مسائل واقعی و یادگیری از سایر متخصصان.
  • arXiv: مطالعه درباره آخرین تحولات تحقیقاتی در یادگیری عمیق.
  • اکوسیستم Keras: کاوش در مستندات Keras، وبلاگ و انجمن‌های جامعه.

سفر مادام‌العمر. یادگیری درباره یادگیری عمیق و هوش مصنوعی یک فرآیند مداوم است. چالش را بپذیرید و به کاوش، پرسش و تحقیق ادامه دهید تا دانش و مهارت‌های خود را گسترش دهید.

آخرین به‌روزرسانی::

FAQ

What's Deep Learning with Python about?

  • Focus on Deep Learning: Deep Learning with Python by François Chollet introduces deep learning concepts using Python and the Keras library, emphasizing practical applications and intuitive explanations.
  • Hands-on Approach: The book provides numerous examples and code snippets, allowing readers to implement deep learning models for various tasks, including image classification and text generation.
  • Comprehensive Coverage: It covers fundamental topics, advanced techniques, and generative models, making it suitable for both beginners and experienced practitioners.

Why should I read Deep Learning with Python?

  • Authoritative Insight: Written by François Chollet, the creator of Keras, the book offers unique insights into deep learning practices and the Keras framework.
  • Accessible Learning: Designed for readers with intermediate Python skills, it makes complex concepts approachable and understandable.
  • Real-World Applications: The book emphasizes practical applications of deep learning, preparing readers to apply these techniques in real-world scenarios.

What are the key takeaways of Deep Learning with Python?

  • Understanding Deep Learning: Readers will gain a solid understanding of deep learning fundamentals, including neural networks, convolutional networks, and recurrent networks.
  • Practical Implementation: The book provides hands-on experience with Keras, enabling readers to build and train their own deep learning models.
  • Advanced Techniques: It covers advanced topics such as generative models, neural style transfer, and text generation, equipping readers with a broad skill set.

What is the significance of Keras in Deep Learning with Python?

  • User-Friendly API: Keras is highlighted for its simplicity and ease of use, allowing users to build complex neural networks with minimal code.
  • Flexibility: It supports various backends, including TensorFlow and Theano, enabling users to switch between them seamlessly.
  • Rapid Prototyping: Keras facilitates rapid prototyping of deep learning models, making it an ideal choice for both beginners and experienced developers.

How does Deep Learning with Python address overfitting?

  • Understanding Overfitting: Overfitting occurs when a model learns patterns specific to the training data but fails to generalize to new data.
  • Regularization Techniques: The book discusses methods like L2 regularization and dropout to mitigate overfitting, helping improve model performance on unseen data.
  • Data Augmentation: It introduces data augmentation as a strategy to artificially increase the size of the training dataset, enhancing model robustness.

What are the mathematical building blocks of neural networks in Deep Learning with Python?

  • Tensors and Operations: Tensors are introduced as the fundamental data structure in deep learning, crucial for manipulating data in neural networks.
  • Gradient Descent: The book covers gradient descent as the optimization algorithm used to update model weights, with backpropagation for computing gradients efficiently.
  • Loss Functions: Emphasizes the importance of loss functions in measuring model performance, discussing types like binary crossentropy and mean squared error.

How does Deep Learning with Python explain convolutional neural networks (CNNs)?

  • Understanding CNNs: The book provides a detailed explanation of CNNs, highlighting their architecture and how they process image data.
  • Convolution and Pooling: It explains convolution as a way to learn local patterns in images, with max pooling for downsampling feature maps.
  • Practical Examples: Includes examples of using CNNs for image classification tasks, demonstrating implementation and training using Keras.

What is the role of data preprocessing in Deep Learning with Python?

  • Importance of Preprocessing: Data preprocessing is crucial for preparing raw data for neural networks, leading to better model performance and faster convergence.
  • Normalization Techniques: Discusses techniques like scaling input values to a specific range to ensure effective learning and prevent issues with varying feature scales.
  • Handling Missing Values: Addresses strategies for dealing with missing values, ensuring the model can learn from available data without being adversely affected.

How does Deep Learning with Python suggest evaluating machine learning models?

  • Training, Validation, and Test Sets: Emphasizes splitting data into these sets to evaluate model performance accurately, preventing overfitting.
  • K-Fold Cross-Validation: Introduces this method for obtaining reliable performance estimates, especially when data is limited.
  • Metrics for Success: Discusses metrics like accuracy, precision, and recall, essential for guiding model optimization.

What are the generative models discussed in Deep Learning with Python?

  • Variational Autoencoders (VAEs): Explains how VAEs learn structured latent spaces for generating new images and editing existing ones.
  • Generative Adversarial Networks (GANs): Covers the architecture and training of GANs, highlighting their ability to produce realistic images.
  • Practical Implementations: Provides code examples for implementing both VAEs and GANs, allowing readers to experiment with generative techniques.

How does Deep Learning with Python explain the concept of transfer learning?

  • Pretrained Models: Discusses using pretrained models to leverage existing knowledge, allowing for faster training and improved performance on new tasks.
  • Fine-Tuning: Covers the process of fine-tuning a pretrained model on a new dataset, adjusting the model to better fit the specific task.
  • Practical Examples: Provides examples of implementing transfer learning using Keras, making it easier to apply in real-world scenarios.

What are the limitations of deep learning discussed in Deep Learning with Python?

  • Lack of Understanding: Emphasizes that deep learning models do not truly understand their inputs, leading to potential misinterpretations.
  • Local vs. Extreme Generalization: Distinguishes between local generalization and extreme generalization, highlighting current model limitations.
  • Need for Reasoning: Points out that deep learning struggles with tasks requiring reasoning and long-term planning, essential for complex applications.

نقد و بررسی

4.57 از 5
میانگین از 1k+ امتیازات از Goodreads و Amazon.

کتاب یادگیری عمیق با پایتون با استقبال بسیار مثبت مواجه شده و به خاطر توضیحات شفاف، رویکرد عملی و مثال‌های کاربردی با استفاده از Keras مورد تحسین قرار گرفته است. خوانندگان از تعادل بین نظریه و کاربرد قدردانی می‌کنند و آن را برای مبتدیان قابل دسترس و در عین حال برای متخصصان با تجربه نیز ارزشمند می‌یابند. این کتاب به خاطر پوشش گسترده‌ای که از معماری‌ها و تکنیک‌های مختلف یادگیری عمیق دارد، مورد ستایش قرار گرفته و بسیاری آن را به عنوان یک مرجع مفید معرفی می‌کنند. برخی از منتقدان اشاره می‌کنند که این کتاب بیشتر بر پیاده‌سازی تمرکز دارد تا نظریه‌های ریاضی، که این موضوع با نیازهای مخاطبان هدف آن، یعنی برنامه‌نویسان و یادگیرندگان عملی، همخوانی دارد.

Your rating:
4.7
50 امتیازها

درباره نویسنده

فرانسوا شولت، چهره‌ای برجسته در حوزه‌ی هوش مصنوعی است که به خاطر ایجاد کتابخانه‌ی یادگیری عمیق Keras شناخته می‌شود. به عنوان یک مهندس و پژوهشگر فرانسوی، او سهم قابل توجهی در توسعه و دسترسی به فناوری‌های یادگیری ماشین داشته است. تخصص شولت در یادگیری عمیق به‌طور گسترده‌ای مورد认可 قرار گرفته و کار او بر روی Keras فرآیند ساخت و آزمایش شبکه‌های عصبی را به طرز چشمگیری ساده کرده است. کتاب او با عنوان "یادگیری عمیق با پایتون" رویکرد عملی او در آموزش مفاهیم هوش مصنوعی را منعکس می‌کند و به منبعی محبوب برای مبتدیان و حرفه‌ای‌های با تجربه در این حوزه تبدیل شده است.

Listen to Summary
0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Home
Library
Get App
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Recommendations: Personalized for you
Ratings: Rate books & see your ratings
100,000+ readers
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on May 16,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
100,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

Settings
General
Widget
Loading...