هوش مصنوعی – تاریخچه، تعاریف و کاربردها

1.09Kهوش مصنوعی
0

هوش مصنوعی – تاریخچه، تعاریف و کاربردها 

حسین برخورداری سوال پاسخ داده شده دسامبر 7, 2020
گذاشتن نظر
0

هوش مصنوعی – تاریخچه، تعاریف و کاربردها 

تاریخچه هوش مصنوعی

هوش مصنوعی (AI) یک رشته شصت ساله جوان است که مجموعه ای از علوم ، نظریه ها و فنون (شامل منطق ریاضی ، آمار ، احتمالات ، زیست عصبی محاسباتی ، علوم رایانه) است که هدف آن تقلید از توانایی های شناختی یک انسان است. تحولات آن با نفس جنگ جهانی دوم آغاز می شود ، و این ارتباطات کاملاً محاسباتی با محاسبات است و باعث شده است که رایانه ها کارهای پیچیده تری را انجام دهند ، که قبلاً فقط به یک انسان واگذار می شد.

با این حال ، این اتوماسیون به معنای دقیق ، از هوش انسانی دور است و همین امر باعث می شود نام برخی از کارشناسان قابل انتقاد باشد. مرحله نهایی تحقیقات آنها (هوش مصنوعی “قوی” ، یعنی توانایی متناسب کردن مشکلات تخصصی بسیار متفاوت به روشی کاملاً خودمختار) کاملاً قابل مقایسه با دستاوردهای فعلی نیست (هوش مصنوعی “ضعیف” یا “متوسط” ، در آموزش بسیار کارآمد رشته). هوش مصنوعی “قوی” که فقط در داستان های علمی تحقق یافته است ، نیاز به پیشرفت در تحقیقات اساسی (نه فقط بهبود عملکرد) دارد تا بتواند جهان را به طور کلی مدل سازی کند.

525040e0 e2f8 f16f 76c4 0e49fa8e803f?t=1536570138000 - هوش مصنوعی – تاریخچه، تعاریف و کاربردها

با این حال ، از سال 2010 ، این رشته رونق جدیدی را تجربه کرده است که دلیل اصلی آن بهبود قابل توجهی در قدرت محاسبات رایانه ها و دستیابی به حجم عظیم داده است.

وعده ها ، تجدید نظرها و نگرانی هایی که بعضاً تصور می شود ، درک عینی از این پدیده را پیچیده می کنند. یادآوری های مختصر تاریخی می تواند به موقعیت نظم و اطلاع از بحث های جاری کمک کند.

1960-1940: تولد هوش مصنوعی در پی سایبرنتیک
دوره بین 1940 و 1960 به شدت متصل به توسعه فن آوری (که جنگ جهانی دوم تسریع کننده آن بود) و میل به درک چگونگی به هم پیوستن عملکرد ماشین آلات و موجودات ارگانیک بود. برای نوربرت وینر ، پیشگام در سایبرنتیک ، هدف این بود که نظریه ریاضیات ، الکترونیک و اتوماسیون را به عنوان “یک تئوری کامل کنترل و ارتباطات ، چه در حیوانات و ماشین ها” متحد سازد. درست قبل از آن ، اولین مدل ریاضی و کامپیوتری نورون بیولوژیکی (نورون رسمی) توسط وارن مک کالوخ و والتر پیتس از اوایل سال 1943 ساخته شده بود.

در آغاز سال 1950 ، جان ون نویمان و آلن تورینگ اصطلاح AI را ایجاد نکردند اما بنیانگذاران فناوری پشت آن بودند: آنها از رایانه ها به منطق اعشاری قرن نوزدهم (که بدین ترتیب با مقادیر 0 تا 9 سروکار داشتند) گذار کردند ) و ماشین آلات به منطق باینری (که متکی به جبر بولی هستند و با زنجیره های کم و بیش مهم 0 یا 1 سرو کار دارند). بنابراین این دو محقق معماری رایانه های معاصر ما را رسمیت بخشیدند و نشان دادند كه این ماشین جهانی است و قادر به اجرای برنامه ریزی شده است. از طرف دیگر ، تورینگ برای اولین بار در مقاله معروف خود “ماشین آلات محاسبات و هوش” سوال توانایی احتمالی یک ماشین را مطرح کرد و “بازی تقلید” را توصیف کرد جایی که یک انسان باید بتواند در گفتگوی تله تیپ تشخیص دهد که آیا با یک مرد یا یک ماشین صحبت می کند. هرچند این مقاله بحث برانگیز باشد (به نظر نمی رسد این “آزمون تورینگ” برای بسیاری از متخصصان واجد شرایط باشد) ، اما اغلب عنوان می شود كه در منبع سال از مرز بین انسان و ماشین است.

اصطلاح “AI” را می توان به جان مک کارتی از MIT (انستیتوی فناوری ماساچوست) نسبت داد ، که ماروین مینسکی (دانشگاه کارنگی-ملون) آن را تعریف می کند “ساخت برنامه های رایانه ای که درگیر وظایفی هستند که در حال حاضر با رضایت بیشتری توسط انسان انجام می شود. زیرا آنها به فرایندهای ذهنی سطح بالا مانند: یادگیری ادراکی ، سازماندهی حافظه و استدلال انتقادی نیاز دارند. کنفرانس تابستان 1956 در کالج دارتموث (بودجه موسسه راکفلر) بنیانگذار این رشته محسوب می شود. به طور خلاصه ، شایان ذکر است که عالی است موفقیت شش کنفرانس بلکه یک کارگاه آموزشی نبود. فقط شش نفر ، از جمله مک کارتی و مینسکی ، در طول این کار (که اساساً به تحولات مبتنی بر منطق رسمی متکی بودند) به طور مداوم حضور داشتند.

در حالی که فناوری جذاب و امیدوار کننده باقی مانده بود (به عنوان مثال ، مقاله 1963 توسط Reed C. Lawlor ، یکی از اعضای دادگستری کالیفرنیا ، تحت عنوان “کامپیوترها چه کاری می توانند انجام دهند: تجزیه و تحلیل و پیش بینی تصمیمات قضایی”) ، نگاه کنید ، محبوبیت این فناوری دوباره کاهش یافت در اوایل دهه 1960 حافظه دستگاه ها بسیار کم بود و استفاده از زبان رایانه ای را دشوار می کرد. با این حال ، برخی از بنیادها مانند درختان راه حل برای حل مشکلات وجود دارد: IPL ، زبان پردازش اطلاعات ، نوشتن برنامه LTM (ماشین نظریه پرداز منطق) را با هدف نشان دادن ریاضیات امکان پذیر کرده است. قضیه ها

هربرت سایمون ، اقتصاددان و جامعه شناس ، در سال 1957 پیشگویی کرد که هوش مصنوعی در 10 سال آینده موفق خواهد شد یک انسان را در شطرنج کتک بزند ، اما سپس هوش مصنوعی وارد اولین زمستان شد. دید سیمون درست بود … 30 سال بعد.

1980-1990: سیستم های خبره
در سال 1968 استنلی کوبریک فیلم “ادیسه فضایی 2001” را کارگردانی کرد که در آن رایانه ای – HAL 9000 (فقط یک حرف با IBM فاصله دارد) کل سوالات اخلاقی مطرح شده توسط هوش مصنوعی را در خود خلاصه می کند: آیا سطح بالایی از مهارت را نشان می دهد ، چه فایده ای برای بشریت است یا خطری؟ تأثیر فیلم طبیعتاً علمی نخواهد بود اما به رواج موضوع کمک می کند ، درست مانند نویسنده داستان علمی فیلیپ دیک ، که هرگز تعجب نخواهد کرد آیا روزی ماشین ها احساساتی را تجربه می کنند یا خیر.

با ظهور اولین ریزپردازنده ها در اواخر سال 1970 بود که هوش مصنوعی دوباره شروع به کار کرد و وارد دوران طلایی سیستم های خبره شد.

این مسیر در واقع در MIT در سال 1965 با DENDRAL (سیستم خبره متخصص شیمی مولکولی) و در دانشگاه استنفورد در سال 1972 با MYCIN (سیستم تخصصی در تشخیص بیماریهای خون و داروهای تجویز شده) گشوده شد. این سیستم ها بر اساس “موتور استنباط” ساخته شده بودند که به عنوان آینه منطقی استدلال بشر برنامه ریزی شده بود. با وارد کردن داده ها ، موتور پاسخ های سطح بالایی از تخصص را ارائه می دهد.

وعده ها یک پیشرفت عظیم را پیش بینی می کردند اما در اواخر سال 1980 ، اوایل سال 1990 ، این وحشت دوباره سقوط خواهد کرد. برنامه نویسی چنین دانش در واقع به تلاش زیادی نیاز داشت و از 200 تا 300 قانون ، اثر “جعبه سیاه” در آنجا بود روشن نیست که ماشین چگونه استدلال می کند. بنابراین توسعه و تعمیر و نگهداری بسیار مشکل ساز شد و – مهمتر از همه – سریعتر و در بسیاری از روشهای کمتر پیچیده و ارزانتر امکان پذیر بود. لازم به یادآوری است که در دهه 1990 اصطلاح هوش مصنوعی تقریباً تابو شده بود و تغییرات متوسطی حتی به زبان دانشگاه وارد شده بود ، مانند “محاسبات پیشرفته”.

موفقیت در ماه مه 1997 Deep Blue (سیستم خبره IBM) در بازی شطرنج مقابل گری کاسپاروف پیشگویی هربرت سایمون در سال 1957 را 30 سال بعد برآورده کرد اما از تأمین مالی و توسعه این نوع هوش مصنوعی پشتیبانی نکرد. عملکرد Deep Blue بر اساس یک الگوریتم نیروی بی رحم سیستماتیک انجام شد ، جایی که تمام حرکات ممکن ارزیابی و وزن بندی شد. شکست انسان در تاریخ بسیار نمادین باقی مانده است ، اما Deep Blue در واقع فقط یک محیط بسیار محدود (از قوانین بازی شطرنج) را درمان کرده است ، بسیار دور از ظرفیت مدل سازی پیچیدگی جهان.

از سال 2010: شکوفائی جدید مبتنی بر داده های انبوه و قدرت محاسباتی جدید
دو عامل رونق جدید این رشته را در حدود سال 2010 توضیح می دهد.

– اول از همه ، دسترسی به حجم گسترده ای از داده ها. برای مثال ، برای اینکه بتوانید از الگوریتم هایی برای طبقه بندی تصویر و تشخیص گربه استفاده کنید ، قبلاً لازم بود که خودتان نمونه برداری کنید. امروز با یک جستجوی ساده در گوگل می توان میلیون ها نفر را پیدا کرد.

– سپس کشف راندمان بسیار بالای پردازنده های کارت گرافیک رایانه ای برای تسریع در محاسبه الگوریتم های یادگیری. روند بسیار تکراری است ، پردازش کل نمونه ممکن است هفته ها طول بکشد. توان محاسباتی این کارتها (با بیش از هزار میلیارد تراکنش در ثانیه) پیشرفت قابل توجهی را با هزینه مالی محدود (کمتر از 1000 یورو برای هر کارت) امکان پذیر کرده است.

این تجهیزات جدید فن آوری موفقیت های چشمگیر عمومی را فراهم کرده و بودجه را نیز افزایش داده است: در سال 2011 ، واتسون ، IA IBM ، در بازی های برابر 2 قهرمان Jeopardy پیروز خواهد شد! » در سال 2012 ، Google X (آزمایشگاه جستجوی گوگل) قادر به شناسایی هوش مصنوعی گربه ها در یک ویدیو است. برای این کار آخر بیش از 16000 پردازنده استفاده شده است ، اما ظرفیت فوق العاده ای است: یک ماشین یاد می گیرد چیزی را تشخیص دهد. در سال 2016 ، AlphaGO (هوش مصنوعی گوگل در زمینه بازی های Go) قهرمان اروپا (Fan Hui) و قهرمان جهان (Lee Sedol) و سپس خود (AlphaGo Zero) را شکست می دهد. بگذارید مشخص کنیم که بازی Go ترکیبی بسیار مهمتر از شطرنج دارد (بیشتر از تعداد ذرات در جهان) و وجود چنین نتایج قابل توجهی در قدرت خام امکان پذیر نیست (همانطور که برای Deep Blue در 1997).

این معجزه از کجا آمده است؟ تغییر پارادایم کامل از سیستم های خبره. این رویه استقرائی شده است: دیگر مسئله قوانین برنامه نویسی برای سیستم های خبره نیست ، بلکه به کامپیوترها اجازه می دهد تا براساس یک همبستگی و طبقه بندی براساس تعداد زیادی داده ، آنها را کشف کنند.

در میان تکنیک های یادگیری ماشین ، یادگیری عمیق برای بسیاری از برنامه ها (از جمله تشخیص صدا یا تصویر) امیدوار کننده ترین است. در سال 2003 ، جفری هینتون (دانشگاه تورنتو) ، یوشوا بنگیو (دانشگاه مونترال) و یان لکون (دانشگاه نیویورک) تصمیم گرفتند یک برنامه تحقیقاتی را برای به روزرسانی شبکه های عصبی آغاز کنند. آزمایشاتی که به طور همزمان در مایکروسافت ، گوگل و IBM با کمک آزمایشگاه تورنتو در هینتون انجام شد ، نشان داد که این نوع یادگیری موفق شد میزان خطای تشخیص گفتار را به نصف کاهش دهد. نتایج مشابهی توسط تیم تشخیص تصویر هینتون حاصل شد.

یک شبه ، اکثر گروه های تحقیقاتی با مزایای غیرقابل انکار به این فناوری روی آوردند. این نوع یادگیری همچنین پیشرفت قابل ملاحظه ای در شناخت متن ایجاد کرده است ، اما ، طبق گفته کارشناسانی مانند یان لکون ، برای تولید سیستم های فهم متن هنوز مسیری طولانی در پیش است. عوامل گفتگو این چالش را به خوبی نشان می دهند: تلفن های هوشمند ما از قبل می دانند که چگونه یک دستورالعمل را رونویسی می کنند اما نمی توانند آن را به طور کامل متناسب کنند و اهداف ما را تجزیه و تحلیل کنند.

اجرای پروژه های تخصصی هوش مصنوعی با مشاوره رایگان سلول پیشتاز

منبع : www.coe.int

حسین برخورداری سوال پاسخ داده شده دسامبر 7, 2020
گذاشتن نظر
پاسخ خود را بنویسید .
  • فعال
  • بازدیدها1091 times
  • پاسخ ها1 پاسخ
ورود به متاورس | متاورس ایرانی
ورود به متاورس ایران یا همان متاورس ملی

علامت ذره بین Tutorials سمت راست به رنگ قرمز به شما کمک خواهد کرد .

جدید ترین سوالات پرسیده شده

منقضی شدن سم بتانال 1 پاسخ | 0 آرا
ایا ایدز گزفتم؟ 0 پاسخ ها | 0 آرا
انتخاب ورزش رزمی 0 پاسخ ها | 1 رای
وزارت تعاون کار و رفاه اجتماعی نماد اعتماد الکترونیک اسناد و املاک کشور مرکز آموزش ویدیویی انجمن حم فروشگاه ملی تولید کنندگان مدیریت بر مدیران حم سامانه حیوانات رسانه ملی اخبار متا دانشگاه متاورس استخدام | دانش فروشگاه حم تبلیغات ملی بازار NFT متاورس رنگ نقشه ملی سه بعدی متا املاک و مستغلات