خطرات هوش مصنوعی چیست ؟

1.30Kهوش مصنوعی
0

خطرات هوش مصنوعی چیست ؟

مارس گذشته ، در کنفرانس فناوری South by Southwest در آستین ، تگزاس ، الون ماسک و بنیانگذار SpaceX هشدار دوستانه ای دادند: “سخنان من را علامت گذاری کن ،” او گفت ، میلیاردر معمولی با کت بمب افکن یقه ای خزدار و مزاحم چند روزه ، “هوش مصنوعی بسیار خطرناک تر از هسته است.”

بدون کوچک شدن بنفش ، خصوصاً وقتی صحبت از نظر فناوری در میان باشد ، مسک صریح نسخه ای از این پیش گوئی های هوش مصنوعی را در سایر تنظیمات نیز تکرار کرده است. 

وی به مخاطبان خود در SXSW گفت: “من واقعاً بسیار نزدیك هستم … و این در هوش مصنوعی است. “این توانایی بسیار بیشتر از آنچه تقریباً هر کس می داند توانایی دارد و میزان پیشرفت نمایی است.”

با این حال ، ماسک در دیدگاه های کاملاً تردیدآمیز (برخی ممکن است بگویند مبهمانه هشدار دهنده) دور از تنهایی است. یک سال قبل ، استیون هاوکینگ ، فیزیکدان فقید ، وقتی به حضار در پرتغال گفت که تأثیر AI می تواند فاجعه آور باشد ، مگر اینکه رشد سریع آن به طور دقیق و اخلاقی کنترل شود ، به همین ترتیب صراحت داشت.

وی توضیح داد: “مگر اینکه یاد بگیریم چگونه خود را برای خطرات احتمالی آماده کنیم و از آن اجتناب کنیم.”

HawkingMusk Risks Artificial Intelligence 0 - خطرات هوش مصنوعی چیست ؟
با در نظر گرفتن تعداد و دامنه وقایع وحشتناک غیرقابل تحول در تاریخ جهان ، این واقعاً حرفی برای گفتن دارد.  

و در مورد ما رانده است به خانه نقطه کاملا محکم به اندازه کافی، محقق استوارت آرمسترانگ از آینده زندگی است صحبت از هوش مصنوعی به عنوان یک “خطر انقراض” آن را به رفتن سرکش بود. وی گفت ، حتی جنگ هسته ای نیز از نظر تخریب در سطح دیگری است زیرا “فقط بخش نسبتاً کمی از کره زمین را می کشد”. همه گیری های Ditto ، “حتی در حد شدیدتر”. 

وی گفت: “اگر هوش مصنوعی خراب شود و 95 درصد انسان ها كشته شوند ،” پنج درصد باقیمانده نیز به زودی خاموش می شوند. بنابراین علیرغم عدم اطمینان ، دارای ویژگی های خاصی از خطرات بسیار بد است. “

دقیقاً چگونه هوش مصنوعی به چنین نقطه خطرناکی می رسد؟ دانشمند و نویسنده شناخت ، گری ماركوس ، جزئیاتی را در مقاله نورانی سال 2013 نیویوركر ارائه داده است. او نوشت ، هرچه ماشین آلات باهوش تر شوند ، اهداف آنها بیشتر می شود.

خطرات هوش مصنوعی

  • اتوماسیون باعث از دست دادن شغل می شود
  • نقض حریم خصوصی
  • ‘Deepfakes’
  • سوگیری الگوریتمی ناشی از داده های بد
  • نابرابری اقتصادی اجتماعی
  • اتوماسیون سلاح

“به محض اینكه رایانه ها بتوانند خود را مجدداً برنامه ریزی كنند ، و به طور پی در پی خود را بهبود بخشند ، منجر به اصطلاح” تکینگی فن آوری “یا” انفجار اطلاعاتی “می شود ، خطرات ماشین های بزرگتر از انسان در جنگ برای منابع و حفظ خود نمی توان به سادگی از بین برد.” 
آیا هوش مصنوعی تهدیدی است؟
هرچه هوش مصنوعی پیچیده تر و همه گیرتر می شود ، صداهای هشدار دهنده نسبت به مشکلات فعلی و آینده آن بلندتر می شوند. خواه این امر افزایش اتوماسیون برخی مشاغل خاص باشد ، مسائل تعصب جنسیتی و نژادی ناشی از منابع اطلاعاتی منسوخ یا  سلاح های خودمختاری است که بدون نظارت بشر کار می کنند (فقط به چند مورد اشاره می کنیم) ، در بسیاری از جبهه ها ناراحتی فراوان است. و ما هنوز در مراحل اولیه هستیم.

ابر هوشمندی مخرب – معروف به هوش عمومی مصنوعی که توسط انسان ایجاد می شود و از کنترل ما فرار می کند تا ویرانی ایجاد کند – در دسته بندی خاص خود قرار دارد. این همچنین موضوعی است که ممکن است به ثمر برسد یا نرسد ( نظریه ها متفاوت است ) ، بنابراین در این مرحله خطر کمتری نسبت به تهدید فرضی – و منبع وحشت موجود وجود دارد.

Risks of Artificial %20Intelligence - خطرات هوش مصنوعی چیست ؟
خطر فوری: اتوماسیون شغلی
به طور کلی اتوماسیون شغلی به عنوان فوری ترین نگرانی مشاهده می شود. دیگر مسئله این نیست که آیا هوش مصنوعی جایگزین انواع خاصی از مشاغل می شود یا خیر ، بلکه در چه درجه ای است . در بسیاری از صنایع – بخصوص اما نه به طور انحصاری در صنایعی که کارگران آنها وظایف قابل پیش بینی و تکراری را انجام می دهند – اختلال به  خوبی در جریان است . طبق مطالعه موسسه بروکینگز در سال 2019 ، 36 میلیون نفر در مشاغل با “مواجهه زیاد” با اتوماسیون کار می کنند ، به این معنی که حداقل 70 درصد از وظایف آنها – از خرده فروشی و تجزیه و تحلیل بازار گرفته تا مهمان نوازی و انبار کار – انجام می شود با استفاده از هوش مصنوعی. حتی جدیدتر بروکینگز گزارش نتیجه میگیرد که مشاغل یقه سفید در واقع ممکن است بیشتر در معرض خطر باشد. و در هر گزارش 2018 از طرف McKinsey & Company ، بیشترین آسیب را به کارگران آمریکایی آفریقایی وارد خواهد کرد.

“مارتین فورد” آینده نگر مشهور (“چپ” ، “دلیل پایین بودن نرخ بیکاری ، که در واقع افرادی که بدنبال کار نیستند را جذب نمی کند ، عمدتا این است که مشاغل بخش خدمات با دستمزد پایین بسیار قوی ساخته شده است.”) ) به Built In گفت. “من فکر نمی کنم که این ادامه یابد.”

وی افزود: هرچه ربات های هوش مصنوعی هوشمندتر و ماهرتر می شوند ، همان کارها به تعداد کمتری انسان احتیاج دارند. و گرچه درست است که هوش مصنوعی باعث ایجاد مشاغلی خواهد شد که تعداد نامشخصی از آنها هنوز تعریف نشده باقی مانده اند ، اما برای بسیاری از اعضای کم تر آموزش و پرورش نیروی کار آواره غیرقابل دسترسی خواهند بود.

“اگر در مک دونالد برگر می زنید و اتوماسیون بیشتری وارد بازار می شود ، آیا یکی از این مشاغل جدید مناسب شما خواهد بود؟” فورد گفت. “یا اینکه احتمالاً شغل جدید به آموزش یا آموزش فراوان یا حتی شاید استعدادهای ذاتی – مهارت های بین فردی یا خلاقیت واقعا قوی – نیاز دارد که نیاز ندارد؟ زیرا این مواردی است که حداقل تاکنون رایانه ها در انجام آنها مهارت چندانی ندارند. “

جان سی هاونز ، نویسنده کتاب Heartificial Intelligence: Embuging Humanity and Maximizing  Machines ، گاو را با این نظریه که هوش مصنوعی به اندازه جایگزین شغل یا بیشتر شغل ایجاد می کند ، می خواند.

حدود چهار سال پیش ، هاونز (راست) گفت ، او با رئیس یک موسسه حقوقی در مورد یادگیری ماشین مصاحبه کرده است. این شخص می خواست افراد بیشتری را استخدام کند ، اما همچنین موظف بود که برای سهامداران خود به بازدهی مشخص دست یابد. وی کشف كرد كه یك نرم افزار 200000 دلاری می تواند جای ده نفر را بگیرد كه هر كدام 100000 دلار حقوق می گیرند. این بدان معنی است که او 800000 دلار پس انداز کرده است این نرم افزار همچنین بهره وری را 70 درصد افزایش می دهد و تقریباً 95 درصد خطاها را ریشه کن می کند. Havens از یک دیدگاه کاملاً سهامدار محور و از پایین صحبت کرد ، “هیچ دلیل قانونی وجود ندارد که او نباید همه انسانها را اخراج کند.” آیا او از این بابت احساس بدی خواهد داشت؟ البته. اما این در کنار موضوع است.

حتی مشاغلی که به مدارک تحصیلات تکمیلی و آموزش اضافی پس از دانشگاه نیاز دارند نیز از جابجایی هوش مصنوعی مصون نیستند. در واقع ، کریس مسینا ، استراتژیست فناوری ، گفت که برخی از آنها ممکن است نابود شوند. هوش مصنوعی در حال حاضر تأثیر قابل توجهی در پزشکی دارد. مسینا گفت ، قانون و حسابداری در مرحله بعدی قرار دارند ، که مورد نخست برای “یک تحرک گسترده” آماده است.

آیا هوش مصنوعی تهدیدی است؟
جامعه فناوری مدتهاست که در مورد تهدیدات ناشی از هوش مصنوعی بحث کرده است. اتوماسیون مشاغل ، انتشار اخبار جعلی و یک مسابقه تسلیحاتی خطرناک سلاح های مجهز به هوش مصنوعی به عنوان بزرگترین خطرات ناشی از هوش مصنوعی مطرح شده است.

وی گفت: “به پیچیدگی قراردادها فکر کنید و واقعاً در آن غواصی کنید و درک کنید که برای ایجاد یک ساختار معاملاتی کامل چه کاری لازم است.” “این بسیاری از وکلا هستند که اطلاعات زیادی را می خوانند – صدها یا هزاران صفحه داده و اسناد. واقعاً آسان است که چیزهایی را فراموش کنید. بنابراین هوش مصنوعی که توانایی ترکیب و تحویل به طور کامل بهترین قرارداد ممکن را برای نتیجه ای که شما در تلاش برای دستیابی به آن هستید ، دارد ، احتمالاً جایگزین بسیاری از وکلای سازمانی خواهد شد. “

مسینا هشدار داد ، حسابداران همچنین باید برای یک تغییر بزرگ آماده شوند. هنگامی که هوش مصنوعی بتواند به سرعت از طریق انبوه داده ها برای تصمیم گیری خودکار بر اساس تفاسیر محاسباتی شانه شود ، حسابرسان انسانی ممکن است غیرضروری باشند.

Privacy Risks Artificial Intelligence - خطرات هوش مصنوعی چیست ؟
حفظ حریم خصوصی ، امنیت و ظهور “DEEPFAKES” 
گرچه از دست دادن شغل در حال حاضر مهمترین مسئله مربوط به اختلال در هوش مصنوعی است ، اما این مسئله فقط یکی از خطرات احتمالی است. در مقاله ای در فوریه 2018 با عنوان “استفاده مخرب از هوش مصنوعی: پیش بینی ، پیشگیری و تخفیف” ، 26 محقق از 14 موسسه (دانشگاهی ، مدنی و صنعتی) تعداد دیگری از خطرات را که می تواند صدمه جدی وارد کند – یا حداقل ، هرج و مرج جزئی بکارید – در کمتر از پنج سال.

آنها در گزارش 100 صفحه ای خود نوشتند: “استفاده سوicious از هوش مصنوعی” ، می تواند امنیت دیجیتال را تهدید کند (به عنوان مثال از طریق ماشین آلات آموزش مجرمان برای هک یا مهندسی اجتماعی قربانیان در سطح عملکرد انسانی یا فوق بشری) ، امنیت جسمی سلاح سازی هواپیماهای بدون سرنشین مصرف کننده) و امنیت سیاسی (به عنوان مثال از طریق نظارت ، پروفایل و سرکوب از بین بردن حریم خصوصی ، یا از طریق کمپین های اطلاعاتی خودکار و هدفمند). “

فورد علاوه بر تهدید وجودی خود ، روی نحوه تأثیر سوvers هوش مصنوعی بر حریم خصوصی و امنیت متمرکز شده است. وی گفت ، یک نمونه برجسته استفاده “اورولین” چین از فناوری تشخیص چهره در دفاتر ، مدارس و اماکن دیگر است. اما این فقط یک کشور است. “یک کل کره زمین” از شرکت ها در فن آوری مشابه تخصص دارند و آن را در سراسر جهان می فروشند.

چیزی که تاکنون فقط می توانیم حدس بزنیم این است که آیا این فناوری هرگز نرمال خواهد شد یا خیر. همانند اینترنت ، جایی که ما داده های دیجیتالی خود را با قربانی قربانگاه راحتی قربانی می کنیم ، آیا روزی نظارت مستمر و تجزیه و تحلیل هوش مصنوعی ، به رغم بهره برداری شیطانی توسط بازیگران بد ، یک تجارت عادلانه برای افزایش ایمنی و امنیت به نظر می رسد؟

فورد گفت: “رژیم های استبدادی از آن استفاده می كنند یا قصد استفاده از آن را دارند.” “سوال این است که ، چقدر به کشورهای غربی ، دموکراسی ها حمله می کند ، و ما چه محدودیت هایی را برای آن اعمال می کنیم؟”

فورد گفت: هوش مصنوعی همچنین باعث ایجاد “شخصیت” های رسانه ای اجتماعی به ظاهر واقعی می شود که تمایز آنها از واقعی بسیار دشوار است. با ارزان و مقیاس در توییتر ، فیس بوک یا اینستاگرام مستقر شده ، می توانند بر یک انتخابات تأثیر بگذارند. 

همین امر در اصطلاح “deepfakes” صوتی و تصویری ایجاد شده با دستکاری صدا و تشبیهات ایجاد می شود. مورد اخیر در حال ایجاد موج است . به نظر فورد ، مورد اول بسیار دشوار خواهد بود. با استفاده از یادگیری ماشینی ، زیرمجموعه ای از هوش مصنوعی که در پردازش زبان طبیعی دخیل است ، می توان یک کلیپ صوتی از هر سیاستمداری را دستکاری کرد تا به نظر برسد گویی آن شخص دیدگاه های نژادپرستانه یا جنسیتی را بیرون می کشد در حالی که در واقع چیزی از این دست بیان نمی کنند. فورد افزود ، اگر كیفیت كلیپ به اندازه كافی بالا باشد تا بتواند مردم را گول بزند و از كشف آن جلوگیری كند ، این می تواند “یك مبارزات سیاسی را به طور كامل از بین ببرد”. 

و تنها چیزی که لازم است یک موفقیت است. 

وی از آن زمان به بعد ، “هیچ کس نمی داند چه چیزی واقعی است و نه چه. بنابراین واقعاً به وضعیتی منجر می شود که شما به معنای واقعی کلمه نمی توانید چشم و گوش خود را باور کنید. شما نمی توانید به آنچه که از نظر تاریخی بهترین مدارک ممکن در نظر گرفته ایم اعتماد کنید … این مسئله بزرگی خواهد بود. “

قانون گذاران ، اگرچه غالباً از فن آوری کمتری برخوردار هستند ، اما کاملاً آگاه هستند و برای یافتن راه حل فشار می آورند. 

inequality risks artificial intelligence - خطرات هوش مصنوعی چیست ؟
تعصب هوش مصنوعی و گسترش نابرابری اقتصادی – اجتماعی
گسترش نابرابری اقتصادی – اقتصادی ناشی از از دست دادن شغل AI- دلیل دیگر نگرانی است. در کنار تحصیل ، مدتهاست که کار محرک تحرک اجتماعی است. با این حال ، وقتی نوعی کار خاص باشد – نوعی قابل پیش بینی و تکراری که مستعد جذب هوش مصنوعی است – تحقیقات نشان داده است کسانی که خود را در سرما می فهمند در مقایسه با افرادی که در سطوح بالاتر قرار دارند ، توانایی کمتری برای گرفتن یا جستجوی مجدد دارند. که پول بیشتری دارند (سپس دوباره ، همه این باور را ندارند)

اشکال مختلف سوگیری AI نیز مضر است. اولگا روساکوفسکی ، استاد علوم کامپیوتر پرینستون که اخیراً با نیویورک تایمز صحبت کرد ، گفت که این فراتر از جنسیت و نژاد است. علاوه بر داده ها و تعصبات الگوریتمی (که مورد دوم می تواند سابق را “تقویت” کند) ، هوش مصنوعی توسط انسان توسعه می یابد و انسان ذاتاً مغرض است.

روساکوفسکی گفت: “محققان هوش مصنوعی در درجه اول مردانی هستند که از جمعیت های نژادی خاص ناشی می شوند و در مناطق اقتصادی-اجتماعی بالایی رشد کرده اند ، در درجه اول افراد بدون معلولیت.” “ما جمعیت نسبتاً همگنی هستیم ، بنابراین تفکر گسترده درباره مسائل جهان یک چالش است.”

در همین مقاله ، تیمیت گبرو ، محقق گوگل گفت که ریشه تعصب بیش از آنکه فن آوری باشد ، اجتماعی است و دانشمندانی مانند خودش را “برخی از خطرناکترین افراد جهان” خواند ، زیرا ما این توهم عینیت را داریم. حوزه علمی ، وی خاطرنشان کرد ، “باید در تلاش برای درک پویایی اجتماعی جهان باشد ، زیرا بیشتر تغییرات بنیادی در سطح اجتماعی اتفاق می افتد.”

و تکنسین ها در به صدا درآوردن زنگ خطر در مورد مشکلات احتمالی اقتصادی – اجتماعی هوش مصنوعی تنها نیستند. همراه با روزنامه نگاران و چهره های سیاسی ، پاپ فرانسیس (سمت راست) نیز صحبت می کند – و او فقط حرم مقدس را سوت نمی زند. در جلسه اواخر سپتامبر واتیکان تحت عنوان ، “خیر مشترک در عصر دیجیتال” ، فرانسیس هشدار داد که هوش مصنوعی توانایی “انتشار نظرات متعارض و داده های دروغین را دارد که می تواند بحث های عمومی را مسموم کند و حتی نظرات میلیون ها نفر را دستکاری کند ، به خطر انداختن نهادهایی که همزیستی مسالمت آمیز مدنی را تضمین می کنند. “

وی افزود: “اگر پیشرفت به اصطلاح بشری به دشمن خیر عمومی تبدیل شود ،” این امر منجر به پسروی ناخوشایند به نوعی بربریت می شود كه توسط قانون قوی ترین افراد دیكته می شود. “

به گفته مسینا ، بخش عمده ای از این مشکل بیشتر از هر چیز پیگیری بخش خصوصی است. او گفت: “این همان کاری است که آنها قرار است انجام دهند.” “و بنابراین آنها فکر نمی کنند ،” بهترین چیز در اینجا چیست؟ چه چیزی بهترین نتیجه ممکن را خواهد داشت؟ “

“ذهنیت این است که ،” اگر می توانیم آن را انجام دهیم ، باید آن را امتحان کنیم. بیایید ببینیم چه اتفاقی می افتد ، “او اضافه کرد. “” و اگر بتوانیم از این طریق درآمد کسب کنیم ، یک سری از آن را انجام خواهیم داد. ” اما این فقط مختص فناوری نیست. این برای همیشه اتفاق می افتد. “

Autonomous Risks Artificial Intelligence - خطرات هوش مصنوعی چیست ؟
سلاح های خودمختار و یک مسابقه بالقوه تسلیحاتی AI
همه با ماسک موافق نیستند که هوش مصنوعی خطرناک تر از هسته های هسته ای است ، از جمله فورد. اما اگر هوش مصنوعی تصمیم به پرتاب هسته های هسته ای – یا مثلا سلاح های بیولوژیکی – بگیرد بدون مداخله انسان چه می شود؟ یا ، اگر دشمن داده ها را دستکاری کند تا موشک های هدایت شده از هوش مصنوعی را از آنجا بیاورد؟ هر دو احتمال است. و هر دو فاجعه بار خواهد بود. بیش از 30،000 محقق هوش مصنوعی / رباتیک و دیگران که نامه سرگشاده ای در این زمینه در سال 2015 امضا کرده اند قطعاً چنین فکر می کنند. 

آنها نوشتند: “سوال اصلی بشریت امروز این است که آیا یک مسابقه جهانی تسلیحاتی AI را شروع کنیم یا از شروع آن جلوگیری کنیم؟” وی افزود: “اگر قدرت نظامی بزرگی با توسعه سلاح های AI پیش برود ، رقابت جهانی تسلیحات امری اجتناب ناپذیر است و نقطه نهایی این سیر فناوری آشكار است: سلاح های خودمختار فردا به كلاشنیكف تبدیل می شوند. برخلاف سلاح های هسته ای ، آنها به مواد اولیه پرهزینه یا سختی بدست نمی آورند ، بنابراین تولید انبوه همه قدرتهای نظامی قابل توجه و ارزان قیمت خواهد بود. فقط زمان لازم است تا زمانی که آنها در بازار سیاه و در دست تروریست ها ظاهر شوند ، دیکتاتورهایی که می خواهند مردم خود را بهتر کنترل کنند ، سرداران جنگی که می خواهند پاکسازی قومی انجام دهند ، و غیره. سلاح های خودمختار برای کارهایی مانند ترور ، بی ثبات کردن ایده آل هستند ملتها ، مقهور کردن جمعیت و کشتن گزینشی یک قوم خاص. بنابراین ما معتقدیم که یک مسابقه تسلیحاتی نظامی AI برای بشریت مفید نخواهد بود. روش های بسیاری وجود دارد که از طریق آنها هوش مصنوعی می تواند بدون ایجاد ابزارهای جدید برای کشتن مردم ، میادین جنگ را برای انسانها ، به ویژه غیرنظامیان امن تر کند.

(بودجه پیشنهادی ارتش آمریكا برای سال 2020 718 میلیارد دلار است. از این میزان ، نزدیك به 1 میلیارد دلار از هوش مصنوعی و یادگیری ماشین برای مواردی مانند تداركات ، تجزیه و تحلیل اطلاعاتی و بله سلاح پشتیبانی می كند.)

در اوایل سال جاری ، یک داستان در Vox به شرح مفصلی از یک سناریو ترسناک شامل توسعه یک سیستم پیشرفته هوش مصنوعی پرداخته است “با هدف ، برای مثال تخمین تعدادی با اطمینان بالا. هوش مصنوعی درمی یابد که اگر از همه سخت افزارهای رایانه ای جهان استفاده کند ، می تواند در محاسبه خود اطمینان بیشتری کسب کند و متوجه می شود که انتشار یک ابر سلاح بیولوژیکی برای از بین بردن بشریت ، امکان استفاده رایگان از همه سخت افزارها را برای آن فراهم می کند. پس از نابودی بشریت ، تعداد را با اطمینان بیشتری محاسبه می کند. “

مطمئناً متناقض است. اما راحت باشید. در سال 2012 ، وزارت دفاع دولت اوباما بخشنامه ای در مورد “خودمختاری در سیستم های سلاح” صادر کرد که شامل این خط بود: “سیستم های تسلیحاتی مستقل و نیمه مستقل باید به گونه ای طراحی شوند که به فرماندهان و اپراتورها اجازه دهند از قضاوت انسان در مورد استفاده از زور.”

و در اوایل ماه نوامبر سال جاری ، گروهی از پنتاگون به نام “شورای نوآوری دفاعی” رهنمودهای اخلاقی مربوط به طراحی و استقرار سلاح های مجهز به هوش مصنوعی را منتشر کرد. به گفته واشنگتن پست ، اما “توصیه های هیئت مدیره به هیچ وجه از نظر قانونی لازم الاجرا نیست. اکنون تعیین نحوه و ادامه کار با پنتاگون است. “

خوب ، این یک تسکین است. یا نه.

Regulation Risks Artificial Intelligence - خطرات هوش مصنوعی چیست ؟
کاهش خطرات AI
بسیاری بر این باورند که تنها راه جلوگیری یا حداقل تعدیل مخرب ترین هوش مصنوعی از ویران کردن ، نوعی تنظیم است. 

ماسک در SXSW گفت: “من به طور معمول طرفدار تنظیم و نظارت نیستم – فکر می کنم باید در جهت به حداقل رساندن این موارد اشتباه کرد – اما این موردی است که شما یک خطر جدی برای مردم دارید.”

“این باید یک نهاد عمومی باشد که دارای بینش و سپس نظارت باشد تا تأیید کند که همه در حال توسعه ایمنی هوش مصنوعی هستند. این بسیار مهم است. “

فورد موافقت می کند – با یک اعتراض وی گفت ، تنظیم پیاده سازی هوش مصنوعی خوب است ، اما در مورد خود تحقیقات اینگونه نیست.

وی گفت: “شما نحوه استفاده از هوش مصنوعی را تنظیم می كنید ، اما پیشرفت در فن آوری پایه را مانع نمی كنید. من فکر می کنم که این کار نادرست و خطرناک باشد. “

از آنجا که هر کشوری که در توسعه هوش مصنوعی عقب است ، از نظر نظامی ، اجتماعی و اقتصادی در یک ضرر است. راه حل ، فورد ادامه داد ، برنامه انتخابی است:

“ما تصمیم می گیریم که کجا AI می خواهیم و کجا نمی خواهیم. کجا قابل قبول است و کجا غیر قابل قبول است. و کشورهای مختلف تصمیمات مختلفی را انتخاب می کنند. بنابراین چین ممکن است آن را در همه جا داشته باشد ، اما این بدان معنا نیست که ما می توانیم در سطح پیشرفته ترین سطح از آنها عقب بیفتیم. “

ژنرال آمریکایی جان آر آلن در ماه اکتبر در مورد سلاح های خودمختار در دانشگاه پرینستون صحبت کرد و بر لزوم “یک مکالمه بین المللی قوی که بتواند آنچه را که این فن آوری پذیرفته است” تأکید کرد. در صورت لزوم ، وی ادامه داد ، همچنین باید در مورد چگونگی کنترل آن گفتگو شود ، این است که معاهده ای که سلاح های AI را کاملاً ممنوع می کند یا معاهده ای که فقط کاربردهای خاصی از این فن آوری را مجاز می داند.

برای Havens ، هوش مصنوعی ایمن تر با انسان شروع و پایان می یابد. تمرکز اصلی وی ، که در کتاب 2016 خود به آن پرداخته ، این است: “اگر ما خودمان را نشناسیم ، ماشین ها چگونه می توانند آنچه را برای ما ارزشمند است ، بدانند؟” وی گفت ، در ایجاد ابزارهای هوش مصنوعی ، “احترام گذاشتن به ارزشهای کاربر نهایی با تمرکز بر انسان” بسیار مهم است و نه تکیه بر سودهای کوتاه مدت.

هاونز در Heartificial Intelligence نوشت: “فناوری از ابتدای بشریت قادر به کمک به ما در انجام وظایف است .” “اما ما به عنوان یک مسابقه هرگز با این احتمال قوی روبرو نشده ایم که ماشین آلات هوشمندتر از ما باشند و یا با هوشیاری عجین شوند. این اوج فناوری یک تمایز مهم برای شناختن است ، هم برای بالا بردن تلاش برای بزرگداشت بشریت و هم برای تعریف بهتر چگونگی پیشرفت هوش مصنوعی. به همین دلیل باید بدانیم که می خواهیم ماشین ها را به چه روشی آگاهانه آموزش دهیم. این شامل انتخاب فردی و همچنین اجتماعی است. “

محققان هوش مصنوعی Fei-Fei Li و John Etchemendy ، از انستیتوی هوش مصنوعی انسان محور دانشگاه استنفورد نیز همین احساس را دارند. در یک پست اخیر در وبلاگ ، آنها پیشنهاد کردند افراد زیادی را در مجموعه ای از زمینه ها مشارکت دهند تا مطمئن شوند هوش مصنوعی به جای تضعیف توانایی های عظیم خود را برآورده می کند و جامعه را تقویت می کند: 

آنها نوشتند: “آینده ما به توانایی دانشمندان علوم اجتماعی و رایانه در همکاری همزمان با افراد از چندین زمینه بستگی دارد – تغییر قابل توجهی در مدل امروزی علوم رایانه.” “سازندگان هوش مصنوعی باید بینش ، تجربیات و نگرانی های افراد را در اقوام ، جنسها ، فرهنگ ها و گروه های اقتصادی اجتماعی و همچنین سایر افراد از سایر زمینه ها مانند اقتصاد ، حقوق ، پزشکی ، فلسفه ، تاریخ ، جامعه شناسی ، ارتباطات جستجو کنند. ، تعامل انسان و کامپیوتر ، روانشناسی و مطالعات علوم و فناوری (STS). این همکاری باید در طول چرخه حیات یک برنامه کاربردی – از اولین مراحل آغازین تا معرفی بازار و به عنوان مقیاس استفاده از آن انجام شود. “

مسینا در مورد آنچه باید اتفاق بیفتد برای جلوگیری از هرج و مرج در هوش مصنوعی تا حدودی ایده آل است ، هرچند که نسبت به تحقق آن تردید دارد. وی گفت ، مقررات دولتی داده نشده است – به ویژه با توجه به شکست در آن جبهه در حوزه رسانه های اجتماعی ، که پیچیدگی های فناوری آنها در مقایسه با هوش مصنوعی کمرنگ است. به “پایداری بیشتر و عواقب ناخواسته کمتر – به ویژه عواقب آسیب رسان بزرگ” ، از طرف شرکت های بزرگ فناوری “یک تلاش بسیار قوی” لازم است.

وی گفت: “در حال حاضر ،” من فکر نمی کنم مسئولیت این اتفاق وجود داشته باشد. “

همانطور که مسینا همه چیز را می بیند ، به نوعی “کاتالیزور” نیاز دارد تا به آن نقطه برسد. به طور دقیق تر ، یک کاتالیزور فاجعه مانند جنگ یا فروپاشی اقتصادی. هرچند که آیا چنین اتفاقی “به اندازه کافی بزرگ برای ایجاد تأثیر معنادار در درازمدت اثبات خواهد شد ، احتمالاً جای بحث دارد”.

از طرف خود ، فورد علی رغم اینکه “در مورد هوش مصنوعی” بسیار بی ادبانه است ، همچنان یک خوش بین طولانی مدت است.

اجرای پروژه های تخصصی هوش مصنوعی با مشاوره رایگان سلول پیشتاز

منبع : futureoflife.org

حسین برخورداری سوال پاسخ داده شده دسامبر 7, 2020
گذاشتن نظر
شما در حال مشاهده 1 از 1 پاسخ هستید ، برای دیدن همه پاسخها اینجا را کلیک کنید .
پاسخ خود را بنویسید .
  • فعال
  • بازدیدها1304 times
  • پاسخ ها1 پاسخ
ورود به متاورس | متاورس ایرانی
ورود به متاورس ایران یا همان متاورس ملی

علامت ذره بین Tutorials سمت راست به رنگ قرمز به شما کمک خواهد کرد .

جدید ترین سوالات پرسیده شده

منقضی شدن سم بتانال 1 پاسخ | 0 آرا
ایا ایدز گزفتم؟ 0 پاسخ ها | 0 آرا
انتخاب ورزش رزمی 0 پاسخ ها | 1 رای
وزارت تعاون کار و رفاه اجتماعی نماد اعتماد الکترونیک اسناد و املاک کشور مرکز آموزش ویدیویی انجمن حم فروشگاه ملی تولید کنندگان مدیریت بر مدیران حم سامانه حیوانات رسانه ملی اخبار متا دانشگاه متاورس استخدام | دانش فروشگاه حم تبلیغات ملی بازار NFT متاورس رنگ نقشه ملی سه بعدی متا املاک و مستغلات