قبل از پایان سال 2019 چشم انداز رایانه را بشناسید

قبل از پایان سال 2019 چشم انداز رایانه را بشناسید

مروری کوتاه بر نحوه توسعه رایانه چشم انداز در 50 سال گذشته داشته باشید و درباره کلمات کلیدی مانند "AI Winter" و معنی آنها اطلاعات کسب کنید.

سال 2019 رو به اتمام است ، اما قبل از اتمام آن ، آیا خوب نخواهد بود که یکی از کلمات کلیدی دهه ما در یادگیری ماشین را درک کنیم؟ این مقاله به شما کمک می کند تا درک مختصری از کامپیوتر چشم انداز داشته باشید ، دانش کافی برای اینکه در شام کریسمس باهوش به نظر برسید.

پس از خواندن این مقاله ، با اصطلاحاتی مانند Computer Vision ، Deep learning ، آشنا خواهید شد. یادگیری ماشین ، هوش مصنوعی ، زمستان ، Skynet ... چیزهای خوب را می دانید.

بنابراین این چیزی است که من مدام در مورد آن می بینم؟

وقتی کسی این سوال را از شما می پرسد ، شما پاسخ می دهید آنها در خطوط "دید کامپیوتر همانطور است که کامپیوتر می بیند." خوب ، نه دقیقاً ، توضیحات زیر را امتحان کنید تا به طور حتم برخی از سرها را بچرخانید.

بینایی رایانه ای فرایندی است که طی آن یک ماشین یا یک سیستم با استناد به یک یا چند الگوریتم که بر روی اطلاعات عمل می کنند ، درک اطلاعات بصری را ایجاد می کند. ارائه شده است. تفاهم به تصمیمات ، طبقه بندی ها ، مشاهده الگوها و موارد دیگر ترجمه می شود. و اکنون شما سرتان را برمی گردانید.

بیایید یک درس تاریخچه سریع داشته باشیم و ببینیم که زمینه بینایی کامپیوتر چگونه توسعه یافته است.

هنگامی که ما برای تقلید تلاش کردیم ، نیاز به چشم انداز رایانه ای بوجود آمد. سیستم ادراک و بینایی در بدن انسان بنابراین سفر در دهه 1960 آغاز شد ، جایی که دانشگاهیان درک انسان را در نظر گرفتند و سعی کردند عملکرد اصلی آن را بر روی یک سیستم رایانه ای تکرار کنند. هدف دانشگاهیان پیشگام ما این بود که به ربات ها این امکان را بدهند که آنچه را که ربات مشاهده کرده است مشاهده کرده و توضیحاتی را ارائه دهند. این اولین قدم به Skynet بود (بله مانند فیلم ، اما این قبل از آن بود).

تشخیص لبه. (2019). [image] موجود در mathwork.com

به نظر نمی رسید که Skynet شبیه به انسان باشد ، بنابراین ما به تکنیک های پردازش تصویر دیجیتالی نگاه کردیم تا درک بیشتری از محتوای تصاویری که به کامپیوتر ارائه می شود ، بدست آوریم. سیستم های بینایی منظور من از درک ، استخراج اطلاعات لبه ، خطوط ، خطوط و اشکال از یک تصویر است. دهه 70 همه مربوط به الگوریتم هایی بود که می توانند اطلاعات را از یک تصویر دیجیتالی استخراج کنند.

نکته ای که باید به آن توجه کرد این است که اولین زمستان هوش مصنوعی در دهه 1970 رخ داد. برای کسانی که با اصطلاح "زمستان هوش مصنوعی" آشنا نیستند ، می توان آن را دوره ای توصیف کرد که در آن کمبود علاقه ، بودجه ، روحیه (هیاهو) و تحقیقات در حوزه های مرتبط با هوش مصنوعی مانند Computer Vision ، Machine وجود دارد. یادگیری و غیره.

دهه های 80 و 90 در بینایی رایانه ای بر ریاضیات و آمار تمرکز داشت. محققان و دانشگاهیان با روش های بینایی رایانه ای با الگوریتم های ریاضی ازدواج کردند. یک مثال خوب برای به تصویر کشیدن استفاده از ریاضیات در بینایی رایانه و تکنیک های پردازش تصویر ، یک الگوریتم تشخیص لبه خواهد بود.

تشخیص لبه یکی از تکنیک های اصلی پردازش تصویر است که در اکثر دوره های بینایی رایانه آموزش داده می شود. در سال 1986 یک آشکارساز لبه عجیب و مفید توسط John F. Canny ساخته شد. به آن می گفتندآشکارساز Canny Edge. جان اف کانی با استفاده از مفاهیم ریاضی مانند محاسبه ، تمایز و بهینه سازی عملکرد ، یک آشکارساز لبه بسیار محبوب ایجاد کرد ، و هنوز در دوره های کارشناسی ارشد تدریس می شود.

به سرعت به دهه قبل بروید دهه 2000 زمان کاملاً انقلابی برای Computer Vision بود. یادگیری عمیق پدیدار شد ، و دید رایانه دوباره موضوعات داغ رسانه ها ، محققان و دانشگاهیان شد.

تعریف کلیدی دیگری در راه است.

یادگیری عمیق زیر شاخه ای از ماشین است یادگیری ، جایی که الگوریتم ها از چندین لایه شبکه عصبی برای استخراج ویژگی های غنی تر از داده های ورودی استفاده می کنند. نمونه هایی از تکنیک های یادگیری عمیق عبارتند از: شبکه های عصبی متحرک عمیق (CNN) و شبکه های عصبی مکرر (RNN). /p> 30 اصطلاح جیبی برای مبتدیان یادگیری ماشین لیستی از اصطلاحات مفید یادگیری ماشین که در علم داده یا حرفه یادگیری ماشین با آن روبرو می شوید. towardsdatascience.com

2012 یک سال محوری در چشم انداز رایانه بود. ممکن است شما از قبل بدانید که من در اینجا قصد ذکر چه چیزی را دارم (خب خسته نباشید و آن را برای دیگران خراب نکنید). مسابقه ای به نام "ImageNet Large Scale Visual Recognition Challenge" وجود دارد ، این مسابقه سالانه برگزار می شود و بیشتر گردهمایی دانشگاهیان ، محققان و علاقه مندان با مقایسه الگوریتم های نرم افزاری است که اشیاء را در تصاویر طبقه بندی و شناسایی می کند. در سال 2012 این مسابقه با معرفی یک شبکه عصبی عمیق متحول (AlexNet) روبرو شد که میزان خطای آن در سال جاری و سالهای قبل از آن از رقبای دیگر پیشی گرفت.

من تحقیق نمی کنم جزئیات زیادی در مورد نحوه طراحی AlexNet وجود دارد ، و منابع آنلاین زیادی برای این کار وجود دارد. اما من به دو مزیت مهم AlexNet برای چشم انداز اشاره می کنم.

ابتدا GPU ها. عملکرد خیره کننده AlexNet با استفاده از واحد پردازش گرافیکی (GPU) امکان پذیر شد. اگرچه قبلا از GPU در رقابت استفاده می شد ، اما استفاده AlexNet از GPU بود که توجه و توجه جامعه بینایی رایانه را جلب کرد.

ثانیاً ، CNN ها استاندارد شدند. توانایی AlexNet برای نشان دادن اثربخشی CNN ها به این معنا بود که CNN ها رواج یافت. از آن سال به بعد ، اجرای CNN ها در اکثر برنامه های کاربردی و تحقیقات بینایی رایانه ای یافت می شود.

باید در اینجا مکث کنم ، و شاید در آینده این مقاله را در مقاله دیگری ادامه دهم. موضوعات و حوزه های زیادی وجود دارد که من به آنها اشاره نکرده ام ، اما در زیر مقالات متوسطی وجود دارد که اصطلاحات کلیدی ذکر شده در این مقاله و موارد دیگر را به تفصیل توضیح می دهد.

اکنون می توانید با داشتن تفاهم به سال 2020 بروید. بینایی کامپیوتر و توسعه آن از دهه 1960. /bq>

مقالات مربوط به Computer Vision و برخی از تکنیک های Dhruv Parthasarathy ، Siddharth Das و James Le را بررسی کنید.

تاریخچه مختصری از CNN ها در تقسیم بندی تصویر: از R-CNN تا Mask R -CNN در Athelas ، ما از شبکه های عصبی کانولوشن (CNN) برای مواردی فراتر از طبقه بندی استفاده می کنیم! در این پست ،… blog.athelas.com معماری CNN: LeNet ، AlexNet ،VGG ، GoogLeNet ، ResNet و موارد دیگر مدلهای پیشگام CNN در ILSVRC در طول سالها و سابقه شبکه های عصبی کانوولوشن 5 تکنیک بینایی رایانه ای که دید شما نسبت به جهان را تغییر خواهد داد heartbeat.fritz.ai
نظرات 0 + ارسال نظر
برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد