راه‌اندازی مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA Jetson

نویسنده:
شرکت پیشرو Ai
تاریخ انتشار:
11 اسفند 1403
دیدگاه ها:
مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA

مقدمه راه‌اندازی مدل‌های بینایی ماشین بر روی دستگاه‌های لبه (edge devices) امروزه برای کاربردهای در لحظه در رباتیک، نظارت و اتوماسیون اهمیت فزاینده‌ای پیدا کرده است. دستگاه‌های NVIDIA Jetson راه‌حلی قدرتمند و در عین حال…

مقدمه

راه‌اندازی مدل‌های بینایی ماشین بر روی دستگاه‌های لبه (edge devices) امروزه برای کاربردهای در لحظه در رباتیک، نظارت و اتوماسیون اهمیت فزاینده‌ای پیدا کرده است. دستگاه‌های NVIDIA Jetson راه‌حلی قدرتمند و در عین حال جمع و جور برای اجرای مدل‌های یادگیری عمیق با شتاب‌دهی GPU ارائه می‌دهند.

در این پست وبلاگ، به فرآیند راه‌اندازی مدل‌های بینایی ماشین بر روی Jetson مانند YOLOv8 ب خواهیم پرداخت. همچنین ابزارها و چارچوب‌های ضروری که امکان استنتاج آفلاین و تشخیص اشیاء در زمان واقعی را فراهم می‌کنند، معرفی می‌شوند. چه شما با یک Jetson Nano برای یک پروژه DIY کار کنید و چه بخواهید با Jetson AGX Orin راه‌حل‌های سازمانی را مقیاس‌بندی کنید، درک نحوه بهینه‌سازی و رفع اشکال در این راه‌اندازی‌ها کلیدی است.

چرا استفاده از NVIDIA Jetson برای بینایی ماشین؟

دستگاه‌های NVIDIA Jetson شامل Jetson Nano، Xavier NX، Orin و AGX Orin، امکانات زیر را ارائه می‌دهند:

شتاب‌دهی GPU برای استنتاج مدل‌های یادگیری عمیق
مصرف پایین انرژی که آن‌ها را برای هوش مصنوعی لبه ایده‌آل می‌سازد
پشتیبانی از TensorRT برای بهینه‌سازی عملکرد مدل
سازگاری با CUDA، cuDNN و چارچوب‌های یادگیری عمیق

این ویژگی‌ها، دستگاه‌های Jetson را برای تشخیص اشیاء در زمان واقعی و کاربردهای بینایی هوش مصنوعی ایده‌آل می‌سازد.

راهنمای گام به گام: راه‌اندازی YOLOv8 بر روی NVIDIA Jetson

1. راه‌اندازی محیط Jetson شما

قبل از راه‌اندازی YOLOv8، مطمئن شوید دستگاه Jetson شما با وابستگی‌های لازم تنظیم شده است.

پیش‌نیازها:

  • JetPack SDK (شامل CUDA، cuDNN، TensorRT و DeepStream)
  • سیستم‌عامل Ubuntu (پیش‌نصب بر روی دستگاه‌های Jetson)
  • Python 3.8+
  • PyTorch و Torchvision

مراحل نصب:

2. نصب YOLOv8 بر روی Jetson

گام 1: نصب Ultralytics YOLOv8

مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA

گام 2: تأیید نصب



مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA


اگر مدل به درستی اجرا شد، آماده راه‌اندازی هستید!

3. بهینه‌سازی YOLOv8 برای Jetson با TensorRT

برای دستیابی به استنتاج بلادرنگ، مدل YOLOv8 را به فرمت TensorRT تبدیل کنید.

گام 1: نصب NVIDIA TensorRT

اگرچه JetPack به‌طور پیش‌فرض TensorRT را شامل می‌شود، می‌توانید آن را به‌صورت دستی نصب کنید:

مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA

گام 2: تبدیل مدل YOLOv8 به فرمت ONNX

مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA

گام 3: تبدیل مدل ONNX به موتور TensorRT

مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA

این مرحله مدل را برای GPU دستگاه Jetson بهینه می‌کند و زمان استنتاج را به‌طور قابل‌توجهی کاهش می‌دهد.

4. اجرای استنتاج YOLOv8 بر روی Jetson

پس از آماده شدن مدل TensorRT، اجرای تشخیص اشیاء به‌صورت بلادرنگ به شرح زیر است:

این اسکریپت، ویدئوی زنده را از دوربین گرفته و استنتاج YOLOv8 را در زمان واقعی اجرا می‌کند.

تکنیک‌های پیشرفته بهینه‌سازی بر روی دستگاه‌های Jetson

برای بسیاری از کاربردهای دنیای واقعی، دستیابی به بالاترین عملکرد ممکن ضروری است. فراتر از مراحل پایه راه‌اندازی، تکنیک‌های پیشرفته بهینه‌سازی می‌توانند هر ذره از عملکرد را از دستگاه‌های Jetson استخراج کنند.

بهره‌گیری از ویژگی‌های سخت‌افزاری خاص

بهینه‌سازی‌های TensorRT:
TensorRT ابزاری قدرتمند از NVIDIA برای بهینه‌سازی مدل‌های یادگیری عمیق است. هنگام تبدیل مدل‌ها به فرمت TensorRT به نکات زیر توجه کنید:

  • استنتاج با دقت مختلط: استفاده از FP16 یا حتی INT8 در صورت امکان. این روش، مصرف حافظه را کاهش داده و بهره‌وری را با از دست دادن حداقلی در دقت افزایش می‌دهد.
  • ترکیب لایه‌ها و تنظیم خودکار هسته‌ها: TensorRT می‌تواند لایه‌ها را ترکیب کرده و بهینه‌ترین هسته‌های GPU را انتخاب کند. مطمئن شوید تنظیمات تبدیل، این بهینه‌سازی‌ها را فعال کرده‌اند.

ادغام با DeepStream SDK:
برای تحلیل ویدئویی چند جریان و خطوط لوله پیچیده‌تر، مدل‌های خود را با NVIDIA DeepStream SDK ادغام کنید. DeepStream کارهای زیر را ساده می‌کند:

  • پردازش ویدئو در زمان واقعی
  • پشتیبانی از چند دوربین
  • پیش‌پردازش و پس‌پردازش پیشرفته داده‌های استنتاج
    با استفاده از DeepStream می‌توانید برنامه‌های انتها به انتهایی بسازید که نه تنها استنتاج را سریعتر اجرا می‌کنند، بلکه قادر به پردازش همزمان چندین جریان ویدئویی هستند.

بهینه‌سازی‌های سطح نرم‌افزار

هرس مدل و کم‌کیفی‌سازی (Quantization):
کاهش پیچیدگی مدل نیز از راهکارهای مؤثر است:

  • هرس: حذف نورون‌ها یا لایه‌های زائد که تأثیر کمی بر عملکرد دارند. این فرآیند تعداد محاسبات کلی را کاهش می‌دهد.
  • کم‌کیفی‌سازی: تبدیل مدل از نوع نقطه شناور ۳۲ بیتی (FP32) به ۱۶ بیتی (FP16) یا ۸ بیتی (INT8). این تبدیل معمولاً منجر به کاهش قابل توجهی در زمان استنتاج و مصرف انرژی می‌شود.

پردازش دسته‌ای دینامیک و پردازش موازی:
بهینه‌سازی نحوه ورودی داده‌ها به مدل نیز می‌تواند منجر به بهبود عملکرد شود:

  • پردازش دسته‌ای دینامیک: به جای پردازش تک فریم، چند فریم را در یک دسته پردازش کنید. این روش بهره‌وری GPU را افزایش می‌دهد.
  • پردازش موازی: از چندنخی یا بارگذاری داده به صورت ناهمزمان استفاده کنید تا مطمئن شوید GPU همیشه مشغول به کار است و منتظر انتقال داده از CPU نمی‌ماند.

مدیریت حافظه:
مدیریت بهینه حافظه در دستگاه‌های با منابع محدود بسیار حیاتی است:

  • حافظه ثابت (Pin Memory): هنگام استفاده از DataLoader (مثلاً در PyTorch) حافظه ثابت را فعال کنید تا انتقال داده به GPU سریع‌تر انجام شود.
  • فضای Swap: فضای Swap کافی در دستگاه Jetson خود تنظیم کنید تا در مواقعی که مصرف حافظه به طور موقت افزایش می‌یابد، سیستم دچار اختلال نشود.

مطالعات موردی مدل‌های بینایی ماشین بر روی Jetson در راه اندازی

بیایید نگاهی دقیق‌تر به برخی از کاربردهای عملی بیندازیم که در آن‌ها راه‌اندازی مدل‌های بینایی ماشین بر روی دستگاه‌های Jetson تأثیر قابل‌توجهی داشته است.

وسایل نقلیه خودران

در رانندگی خودران، تشخیص اشیاء در زمان واقعی حیاتی است. به عنوان مثال:

  • تشخیص عابر پیاده: YOLOv8 در حال اجرا بر روی یک Jetson Xavier NX می‌تواند با سرعت 30-40 فریم بر ثانیه عابران پیاده را شناسایی کند؛ این امر واکنش سریع خودروهای خودران را تضمین می‌کند.
  • تشخیص علائم ترافیکی: با ادغام یک مدل بهینه‌شده با TensorRT، وسایل نقلیه می‌توانند علائم ترافیکی را به سرعت شناسایی و واکنش نشان دهند و ایمنی را افزایش دهند.

اتوماسیون صنعتی

کارخانجات تولیدی به‌طور فزاینده‌ای از دستگاه‌های Jetson برای اتوماسیون کنترل کیفیت استفاده می‌کنند:

  • تشخیص نقص: با استفاده از دوربین‌های با وضوح بالا متصل به یک Jetson AGX Orin، کارخانه‌ها می‌توانند خطوط تولید را در زمان واقعی نظارت کنند. مدل‌های بهینه‌شده می‌توانند نقص محصولات را به سرعت شناسایی کنند و در نتیجه ضایعات را کاهش دهند.
  • نگهداری پیش‌بین: مدل‌های بینایی ماشین می‌توانند تجهیزات را تحت نظارت داشته باشند و قبل از وقوع خرابی‌های پرهزینه، مسائل احتمالی را تشخیص دهند.

نظارت و امنیت

سیستم‌های نظارت هوشمند از استقرار در لبه بهره می‌برند:

  • تشخیص نفوذ در زمان واقعی: Jetson Nano یا Xavier NX می‌توانند مدل‌های تشخیص اشیاء بهینه‌شده را برای نظارت بر فضاهای عمومی یا مناطق محدود اجرا کنند. استنتاج سریع تضمین می‌کند که هشدارها بلافاصله پس از شناسایی افراد غیرمجاز تولید شوند.
  • مدیریت جمعیت: با پردازش همزمان چندین جریان ویدئویی با استفاده از DeepStream، اماکن بزرگی مانند ورزشگاه‌ها یا فرودگاه‌ها می‌توانند ایمنی عمومی را بهبود بخشند و جریان جمعیت را به‌طور مؤثری مدیریت کنند.

خرده‌فروشی و مدیریت موجودی

خرده‌فروشان به استفاده از هوش مصنوعی برای مدیریت سطح موجودی و بهبود تجربه مشتری روی می‌آورند:

  • پرداخت خودکار: دوربین‌های نصب‌شده در فروشگاه‌ها می‌توانند با استفاده از تشخیص اشیاء، محصولات را در حین پرداخت شناسایی کنند و روند پرداخت را تسریع و خطاها را کاهش دهند.
  • ردیابی موجودی: دستگاه‌های Jetson می‌توانند به طور مداوم قفسه‌ها را نظارت کرده و در صورت کمبود موجودی، هشدار ارسال کنند.

رفع اشکال و تنظیم عملکرد

حتی با استقرار بهینه، ممکن است با چالش‌هایی مواجه شوید. در زیر نکاتی برای رفع اشکال و استراتژی‌های تنظیم عملکرد آورده شده است:

مشکلات رایج

  1. فریم بر ثانیه نامنظم:

    • علائم: مدل گاهی کندتر از حد انتظار اجرا می‌شود.
    • راه‌حل‌ها:
      • بررسی گلوگاه‌های انتقال داده بین CPU و GPU.
      • اطمینان از اینکه فرآیندهای پس‌زمینه منابع سیستم را مصرف نمی‌کنند.
      • تأیید استفاده از موتور بهینه‌شده TensorRT.
  2. اشکالات حافظه:

    • علائم: سیستم دچار کرش یا کاهش عملکرد به دلیل مشکلات حافظه می‌شود.
    • راه‌حل‌ها:
      • بهینه‌سازی مدل با کاهش اندازه دسته یا استفاده از کم‌کیفی‌سازی.
      • نظارت بر مصرف حافظه با ابزارهایی مانند tegrastats.
      • افزایش فضای swap در صورت نیاز.
  3. خطاهای استنتاج:

    • علائم: مدل خطا می‌دهد یا نتایج تشخیص نمی‌کند.
    • راه‌حل‌ها:
      • بررسی موفقیت‌آمیز بودن فرآیند تبدیل مدل به ONNX و TensorRT.
      • بازبینی تنظیمات صادرات؛ گاهی به‌روزرسانی نسخه opset یا تنظیم مجدد مدل می‌تواند مشکل را حل کند.

استراتژی‌های تنظیم عملکرد

  • ابزارهای پروفایلینگ:
    از ابزارهایی مانند NVIDIA Nsight Systems یا tegrastats برای نظارت بر عملکرد برنامه به صورت بلادرنگ استفاده کنید. این ابزارها به شما کمک می‌کنند تا گلوگاه‌های انتقال داده، محاسبات یا مصرف حافظه را شناسایی کنید.


  • آزمایش مرحله به مرحله:
    هر مؤلفه را جداگانه آزمایش کنید قبل از اینکه آن‌ها را در یک خط لوله کامل ادغام کنید. به عنوان مثال، سرعت استنتاج روی یک تصویر ثابت را قبل از استفاده از آن در جریان ویدئویی بلادرنگ آزمایش کنید.


  • به‌روزرسانی منظم:
    نرم‌افزار دستگاه‌های Jetson خود را به‌روز نگه دارید. NVIDIA به‌طور منظم به‌روزرسانی‌هایی برای JetPack، TensorRT و سایر اجزا منتشر می‌کند که اغلب شامل بهبود عملکرد و رفع اشکالات می‌شوند.


دیدگاه‌های آینده و نوآوری‌های پیش رو در هوش مصنوعی لبه

زمینه هوش مصنوعی لبه به سرعت در حال تحول است و چندین روند نوین قرار است آینده راه‌اندازی مدل‌های بینایی ماشین بر روی دستگاه‌های Jetson را شکل دهند.

پیشرفت‌های سخت‌افزاری نوین

  • دستگاه‌های نسل بعدی Jetson:
    انتظار می‌رود نسل‌های آینده دستگاه‌های Jetson عملکرد بالاتر و بهره‌وری انرژی بهتری ارائه دهند. این بدان معناست که مدل‌های پیچیده‌تر می‌توانند بدون قربانی کردن عملکرد زمان واقعی، در لبه اجرا شوند.

  • شتاب‌دهنده‌های اختصاصی هوش مصنوعی:
    ممکن است شاهد ادغام شتاب‌دهنده‌های اختصاصی هوش مصنوعی در کنار GPUها باشیم. این شتاب‌دهنده‌ها به‌طور خاص برای استنتاج شبکه‌های عصبی طراحی شده‌اند و زمان پاسخ‌دهی را به طور قابل‌توجهی کاهش می‌دهند.

نوآوری‌های سطح نرم‌افزار و الگوریتمی

  • تکنیک‌های فشرده‌سازی مدل پیشرفته:
    پژوهش‌های جاری در زمینه کم‌کیفی‌سازی، هرس و انتقال دانش ادامه خواهد داشت تا اندازه مدل‌ها بدون از دست دادن دقت کاهش یابد. این امر برای راه‌اندازی مدل‌های پیشرفته بر روی سخت‌افزارهای محدود بسیار حیاتی است.

  • یادگیری فدرال:
    یادگیری فدرال اجازه می‌دهد مدل‌ها به‌طور محلی روی دستگاه‌های لبه آموزش داده و به‌روزرسانی شوند، که بهبود حریم خصوصی و کاهش انتقال داده‌های عظیم به ابر را به همراه دارد. این رویکرد توزیع‌شده به تقویت راه‌حل‌های هوشمند محلی کمک می‌کند.

ادغام با اکوسیستم‌های گسترده‌تر

  • راه‌حل‌های هیبرید ابر-لبه:
    استقرار همزمان دستگاه‌های لبه مانند Jetson با خدمات ابری، امکان آموزش دوره‌ای مدل و تحلیل‌های مقیاس بزرگ را فراهم می‌کند. این رویکرد هیبرید، بهترین ویژگی‌های محاسبات لبه و قدرت پردازش ابری را در کنار هم به ارمغان می‌آورد.


  • چارچوب‌های استاندارد استقرار:
    با پذیرش گسترده هوش مصنوعی در صنایع مختلف، چارچوب‌های استاندارد و شیوه‌های بهترین عمل ظاهر خواهند شد که کار راه‌اندازی و مدیریت برنامه‌های بینایی ماشین را در پیکربندی‌های سخت‌افزاری متنوع آسان می‌کند.

همکاری پژوهشی و مشارکت جامعه

  • همکاری متن‌باز:
    پروژه‌های متن‌باز و تلاش‌های مشترک جامعه به پیشرفت‌های بیشتری منجر خواهند شد. مشارکت جامعه باعث ایجاد کتابخانه‌ها و ابزارهای مقاوم‌تر و چندمنظوره برای دستگاه‌های Jetson می‌شود.

  • آمار و شاخص‌های واقعی:
    با استقرار گسترده این مدل‌ها، جامعه از شاخص‌ها و مطالعات موردی مشترک بهره‌مند خواهد شد که بهترین شیوه‌ها را روشن می‌کند و نوآوری‌های بیشتر را تحریک می‌کند.

نتیجه‌گیری

راه‌اندازی مدل‌های بینایی ماشین بر روی دستگاه‌های NVIDIA Jetson نه تنها هوش مصنوعی را به جایی نزدیک می‌کند که داده‌ها تولید می‌شوند، بلکه عملکرد و بهره‌وری لازم برای کاربردهای بلادرنگ را نیز فراهم می‌آورد. با پیروی از مراحل دقیق راه‌اندازی محیط، نصب YOLOv8، و بهینه‌سازی مدل‌ها با TensorRT، می‌توانید برنامه‌های هوش مصنوعی لبه قدرتمندی بسازید.

استراتژی‌های اضافی مطرح‌شده در این راهنمای توسعه‌یافته—از تکنیک‌های پیشرفته بهینه‌سازی و نکات رفع اشکال گرفته تا مطالعات موردی و روندهای آینده—نقشه راه جامعی برای بهره‌برداری کامل از دستگاه‌های Jetson فراهم می‌کند. چه در حال طراحی وسایل نقلیه خودران، بهبود اتوماسیون صنعتی، یا توسعه سیستم‌های نظارتی هوشمند باشید، همگرا شدن سخت‌افزار کارآمد و چارچوب‌های نرم‌افزاری قوی به شما امکان نوآوری در لبه را می‌دهد.

با آگاهی از این پیشرفت‌ها و همکاری با جامعه متن‌باز، شما می‌توانید عملکرد را بهبود ببخشید و اطمینان حاصل کنید که برنامه‌های شما مقیاس‌پذیر، امن و برای آینده آماده هستند.

با آرزوی موفقیت در راه‌اندازی، امیدواریم پروژه‌هایتان با سرعت کامل اجرا شوند!

پرسش‌های متداول

1. دستگاه NVIDIA Jetson چیست و چه ویژگی‌هایی دارد؟

دستگاه‌های NVIDIA Jetson بوردهای محاسباتی جاسازی‌شده‌ای هستند که برای اجرای مدل‌های هوش مصنوعی و بینایی ماشین در لبه طراحی شده‌اند. این دستگاه‌ها از GPU قدرتمند، مصرف پایین انرژی و پشتیبانی از فناوری‌های CUDA و TensorRT بهره می‌برند.

2. مراحل اصلی راه‌اندازی یک دستگاه Jetson برای بینایی ماشین چیستند؟

مراحل اصلی شامل نصب JetPack SDK، به‌روزرسانی سیستم، نصب Python و وابستگی‌ها، ایجاد محیط مجازی، نصب PyTorch و ابزارهای مربوطه و در نهایت پیکربندی و بهینه‌سازی مدل‌های بینایی ماشین می‌باشد.

3. چگونه می‌توان YOLOv8 را روی دستگاه‌های Jetson نصب کرد؟

با نصب بسته Ultralytics از طریق pip، سپس بارگذاری و آزمایش مدل YOLOv8 با کد پایتون، می‌توانید از مدل استفاده کنید. پس از آن، مدل را به فرمت ONNX صادر کرده و با استفاده از TensorRT بهینه‌سازی نمایید.

4. چرا استفاده از TensorRT برای بهینه‌سازی مدل‌ها اهمیت دارد؟

TensorRT با تبدیل مدل‌ها به فرمتی بهینه و استفاده از دقت‌های پایین‌تر مانند FP16 یا INT8، عملکرد استنتاج را بهبود می‌بخشد و زمان پاسخ‌دهی را کاهش می‌دهد، که برای کاربردهای بلادرنگ حیاتی است.

5. چه تکنیک‌های پیشرفته‌ای برای بهبود عملکرد مدل‌های بینایی ماشین وجود دارد؟

تکنیک‌های پیشرفته شامل استفاده از کم‌کیفی‌سازی (Quantization)، هرس مدل (Pruning)، پردازش دسته‌ای دینامیک، پردازش موازی و بهینه‌سازی مدیریت حافظه با ابزارهای پروفایلینگ مانند Nsight Systems می‌شود.

6. در استقرار مدل‌های بینایی ماشین بر روی Jetson، چه چالش‌هایی ممکن است رخ دهد؟

چالش‌هایی مانند محدودیت حافظه، تنگناهای انتقال داده بین CPU و GPU، اختلالات ناشی از فرآیندهای پس‌زمینه و نیاز به بهینه‌سازی‌های دقیق برای حفظ سرعت استنتاج در زمان واقعی از جمله مشکلات رایج هستند.

7. چگونه می‌توان عملکرد و کارایی مدل‌ها را در زمان واقعی بهبود داد؟

با استفاده از پردازش دسته‌ای، بهینه‌سازی انتقال داده به GPU، بهره‌گیری از مدل‌های بهینه‌شده با TensorRT و نظارت مداوم بر منابع سیستم با ابزارهایی مانند tegrastats می‌توان عملکرد را بهبود بخشید.

8. ادغام DeepStream SDK چه مزایایی در پروژه‌های بینایی ماشین دارد؟

DeepStream SDK امکان پردازش چندین جریان ویدئویی به‌صورت همزمان را فراهم کرده و ابزارهایی برای پیش‌پردازش، پس‌پردازش و مدیریت داده‌های استنتاج ارائه می‌دهد که منجر به افزایش بهره‌وری و عملکرد سیستم‌های نظارتی و صنعتی می‌شود.

9. آینده هوش مصنوعی لبه و روندهای نوظهور در این حوزه چیست؟

آینده هوش مصنوعی لبه شامل استفاده از نسل‌های بعدی دستگاه‌های Jetson با بهره‌وری انرژی بالاتر، ادغام شتاب‌دهنده‌های اختصاصی هوش مصنوعی، یادگیری فدرال و توسعه چارچوب‌های استاندارد برای استقرار مدل‌های پیچیده در لبه است.

10. نکات کلیدی برای رفع اشکال و تنظیم عملکرد در استقرار مدل‌های بینایی ماشین بر روی Jetson چیست؟

استفاده از ابزارهای پروفایلینگ مانند Nsight Systems، آزمایش مرحله به مرحله مؤلفه‌های سیستم، به‌روزرسانی منظم نرم‌افزار و بهینه‌سازی مدیریت حافظه و انتقال داده‌ها از جمله نکات کلیدی برای رفع اشکال و تنظیم عملکرد سیستم‌های استنتاج در زمان واقعی است.

 

مشتاقانه منتظر دریافت نظرات شما دوستان عزیز هستیم





مطالب مرتبط

کربن رباتیکس

کنترل هوشمند علف‌های هرز با لیزر و GPUهای انویدیا: انقلاب کربن رباتیکس در کشاورزی

Jetpack جتسون

Jetpack جتسون: راهنمای جامع برای تسلط بر مغز متفکر ربات‌های هوشمند

پردازش تصویر با Jetson Nano

پردازش تصویر با Jetson Nano

شهر هوشمند

انویدیا هوش مصنوعی فیزیکی را با برنامه‌ای جدید به شهرهای اروپایی می‌آورد

کاربردهای Jetson

کاربردهای Jetson: گشودن افق‌های هوش مصنوعی

کاربردهای جتسون در صنعت

تحول هوش مصنوعی صنعتی: کاربردهای جتسون در صنعت