اخلاق ماشین: چالش‌ها و رویکردهای مسائل اخلاقی در هوش مصنوعی و ابرهوش

1.82Kهوش مصنوعی
0

اخلاق ماشین: چالش‌ها و رویکردهای مسائل اخلاقی در هوش مصنوعی و ابرهوش 

حسین برخورداری سوال پاسخ داده شده دسامبر 7, 2020
گذاشتن نظر
0

اخلاق ماشین: چالش‌ها و رویکردهای مسائل اخلاقی در هوش مصنوعی و ابرهوش 

هوش مصنوعی (AI) و رباتیک فناوری های دیجیتالی هستند که در آینده نزدیک تأثیر بسزایی در توسعه بشریت خواهند داشت. آنها س fundamentalالات اساسی را درمورد اینکه چه کاری باید با این سیستم ها انجام دهیم ، اینکه خود سیستم ها چه کاری باید انجام دهند ، چه خطراتی دارند و چگونه می توانیم اینها را کنترل کنیم ، مطرح کرده اند.

پس از مقدمه در زمینه (§1) ، موضوعات اصلی (§2) این مقاله عبارتند از: موارد اخلاقی که با سیستم های AI به عنوان اشیا بوجود می آیند ، یعنی ابزارهایی که بشر ساخته و استفاده می شود. این شامل مسائل مربوط به حریم خصوصی (.12.1) و دستکاری (.22.2) ، تیرگی (.32.3) و تعصب (.42.4) ، تعامل انسان و ربات (§2.5) ، اشتغال (§ 2.6) ، و اثرات خودمختاری ( 2.7) سپس سیستم های هوش مصنوعی به عنوان موضوع ، یعنی اخلاق مربوط به خود سیستم های هوش مصنوعی در اخلاق ماشین (§ 2.8) و اختیار اخلاقی مصنوعی (9 2.9). سرانجام ، مشکل ابر هوشمندی AI در آینده که منجر به “تکینگی” شود (§ 2.10). ما با یک توضیح در مورد دید AI (§3) می بندیم.

برای هر بخش در این مضامین ، ما یک توضیح کلی درباره مسائل اخلاقی ارائه می دهیم ، مواضع و استدلال های موجود را شرح می دهیم ، سپس نحوه بازی اینها با فناوری های فعلی را تحلیل می کنیم و در آخر ، می توان نتیجه سیاست ها را بیان کرد.

1. معرفی
1.1 زمینه
اصول اخلاقی هوش مصنوعی و رباتیک اغلب بر روی “نگرانی” های مختلف متمرکز شده است ، که پاسخی معمول به فناوری های جدید است. به نظر می رسد بسیاری از این نگرانی ها بسیار عجیب و غریب هستند (قطارها برای روح بسیار سریع هستند). بعضی از آنها پیش بینی می کنند که وقتی این فناوری تغییر اساسی در انسان ایجاد می کند اشتباه است (تلفن ارتباطات شخصی را از بین می برد ، نوشتن حافظه را از بین می برد ، کاست های ویدئویی از کار خارج می شوند). برخی از آنها به طور کلی درست اما نسبتاً مناسب هستند (فناوری دیجیتال صنایعی را که فیلم عکاسی ، نوار کاست یا ضبط وینیل می سازند از بین می برد). اما بعضی از آنها کاملاً درست و کاملاً مرتبط هستند (اتومبیل ها کودکان را می کشد و منظره را اساساً تغییر می دهد). وظیفه مقاله ای مانند این تجزیه و تحلیل مسائل و تخلیه تخلیه موارد غیرمجاز است.

برخی از فن آوری ها ، مانند انرژی هسته ای ، اتومبیل ها یا پلاستیک ها ، باعث بحث اخلاقی و سیاسی و تلاش های قابل توجه در سیاست گذاری برای کنترل مسیر این فن آوری ها شده است ، معمولاً فقط در صورت ایجاد آسیب. علاوه بر چنین “نگرانی های اخلاقی” ، فناوری های جدید هنجارهای فعلی و سیستم های مفهومی را که مورد توجه ویژه فلسفه است ، به چالش می کشند. سرانجام ، هنگامی که ما یک فناوری را در زمینه آن درک کردیم ، باید پاسخ جامعه خود را ، از جمله مقررات و قانون ، شکل دهیم. همه این ویژگی ها در مورد فناوری های جدید هوش مصنوعی و رباتیک نیز وجود دارد – به علاوه ترس بنیادی تری که ممکن است به دوره کنترل انسان بر روی زمین خاتمه دهد.

اخلاقیات هوش مصنوعی و رباتیک در سال های اخیر شاهد پوشش مطبوعاتی قابل توجهی بوده است ، که از تحقیقات مرتبط پشتیبانی می کند ، اما همچنین ممکن است منجر به تضعیف آن شود: مطبوعات اغلب به گونه ای صحبت می کنند که گویی مسائل مورد بحث فقط پیش بینی فناوری آینده است و اگرچه ما قبلاً می دانیم که بیشتر اخلاقی چیست و چگونه می توان به آن دست یافت. بنابراین پوشش مطبوعاتی بر روی خطر ، امنیت تمرکز دارد (Brundage و همکاران 2018 ، در سایر منابع اینترنتیبخش زیر ، از این پس [OIR]) ، و پیش بینی تأثیر (به عنوان مثال ، در بازار کار). نتیجه بحث در مورد مشکلات اساسی فنی است که بر چگونگی دستیابی به نتیجه مطلوب متمرکز است. بحث های کنونی در سیاست و صنعت نیز با انگیزه تصویر و روابط عمومی شکل می گیرد ، جایی که برچسب “اخلاقی” واقعاً چیزی بیشتر از “سبز” جدید نیست ، شاید برای “اخلاق شویی” استفاده شود. برای اینکه مشکلی به عنوان مشکلی در اخلاق هوش مصنوعی شناخته شود ، مستلزم این است که ما به راحتی نمی دانیم کار صحیح چیست. از این نظر ، از دست دادن شغل ، سرقت یا کشتن با هوش مصنوعی در اخلاق مشکلی ندارد ، اما اینکه آیا تحت شرایط خاص مجاز است این یک مشکل است. این مقاله به مشکلات اصلی اخلاق می پردازد ، جایی که ما به راحتی نمی دانیم پاسخ چیست.

آخرین اخطار: اخلاق هوش مصنوعی و رباتیک در حوزه اخلاق کاربردی بسیار جوان است ، دارای پویایی قابل توجه ، اما چند مورد کاملاً ثابت و بدون مروری معتبر – هرچند طرح کلی امیدوارکننده ای وجود دارد (گروه اخلاقی اروپا در علوم و فن آوری های جدید 2018) و در مورد تأثیرات اجتماعی (Floridi و همکاران 2018 ؛ Taddeo و Floridi 2018 ؛ S. Taylor و همکاران 2018 ؛ Walsh 2018 ؛ Bryson 2019 ؛ Gibert 2019 ؛ Whittlestone و دیگران. 2019) و توصیه های سیاست (AI) وجود دارد. HLEG 2019 [OIR] ؛ IEEE 2019). بنابراین این مقاله نمی تواند صرفاً آنچه جامعه تاکنون بدست آورده است را بازتولید کند ، بلکه باید نظم را در جایی که نظم کمی وجود دارد ، پیشنهاد دهد.
1.2 هوش مصنوعی و رباتیک
مفهوم “هوش مصنوعی” (AI) به طور کلی به عنوان هر نوع سیستم محاسباتی مصنوعی درک می شود که رفتار هوشمندانه ای را نشان می دهد ، یعنی رفتار پیچیده ای که برای رسیدن به اهداف مناسب است. به طور خاص ، ما مایل نیستیم “هوش” را به آنچه در صورت انجام هوش توسط انسان احتیاج دارد محدود کنیم ، همانطور که مینسکی (1985) گفته بود. این بدان معنی است که ما طیف وسیعی از ماشین آلات را در خود گنجانده ایم ، از جمله آنهایی که دارای “هوش مصنوعی فنی” هستند ، که فقط توانایی های محدودی را در یادگیری یا استدلال نشان می دهند اما در اتوماسیون کارهای خاص بسیار عالی هستند ، همچنین ماشین هایی در “هوش مصنوعی عمومی” که هدف آنها ایجاد کلی عامل باهوش.

هوش مصنوعی به نوعی نسبت به سایر فناوری ها به پوست ما نزدیکتر می شود – بنابراین حوزه “فلسفه هوش مصنوعی”. شاید به این دلیل است که پروژه هوش مصنوعی ایجاد ماشین هایی است که دارای ویژگی اصلی چگونگی دید خود ما انسان ها هستند ، یعنی موجوداتی با احساس ، فکر ، باهوش. اهداف اصلی یک عامل هوشمند مصنوعی احتمالاً شامل سنجش ، مدل سازی ، برنامه ریزی و اقدام است ، اما برنامه های فعلی هوش مصنوعی همچنین شامل ادراک ، تجزیه و تحلیل متن ، پردازش زبان طبیعی (NLP) ، استدلال منطقی ، بازی ، سیستم های پشتیبانی تصمیم ، تجزیه و تحلیل داده ها ، تجزیه و تحلیل پیش بینی ، و همچنین وسایل نقلیه مستقل و سایر اشکال رباتیک (P. Stone و همکاران 2016). هوش مصنوعی برای دستیابی به این اهداف می تواند شامل تعدادی از تکنیک های محاسباتی باشد ، چه این که هوش مصنوعی کلاسیک دستکاری نمادها ، الهام گرفته از شناخت طبیعی ،

از نظر تاریخی ، شایان ذکر است که اصطلاح “AI” در بالا استفاده شده است. 1950–1975 ، سپس در “زمستان AI” ، تقریباً مورد بی مهری قرار گرفت. 1975–1995 ، و تنگ شد. در نتیجه ، مناطقی مانند “یادگیری ماشین” ، “پردازش زبان طبیعی” و “علم داده” اغلب با عنوان “AI” برچسب گذاری نمی شدند. از حدود در سال 2010 ، استفاده مجدداً گسترش یافته است و در بعضی مواقع تقریباً تمام علوم کامپیوتر و حتی فناوری پیشرفته تحت “AI” قرار می گیرند. اکنون این نامی است که می توان به آن افتخار کرد ، صنعتی درحال رونق با سرمایه گذاری عظیم (Shoham و همکاران 2018) و دوباره در لبه هیاهوی تبلیغاتی. همانطور که اریک براینلفلفسون متذکر شد ، ممکن است به ما اجازه دهد

تقریباً فقر جهانی را از بین ببرید ، به طور گسترده بیماری ها را کاهش دهید و تقریباً به همه افراد روی کره زمین آموزش بهتری بدهید. (به نقل از اندرسون ، رینی و لوچینگر 2018)

در حالی که هوش مصنوعی می تواند کاملاً نرم افزاری باشد ، ربات ها ماشین های فیزیکی هستند که حرکت می کنند. ربات ها تحت تأثیر فیزیکی قرار می گیرند ، معمولاً از طریق “حسگرها” ، و آنها از طریق “محرک ها” مانند گیرنده یا چرخش چرخ به بدن فشار می آورند. بر این اساس ، اتومبیل ها یا هواپیماهای خودمختار ربات هستند و فقط یک قسمت کوچک از ربات ها مانند انسان ها “انسان نما” (مانند انسان) است. برخی از روبات ها از هوش مصنوعی استفاده می کنند و برخی دیگر از این روبات ها استفاده نمی کنند: روبات های معمولی صنعتی کورکورانه از اسکریپت های کاملاً تعریف شده با حداقل ورودی حسی و بدون یادگیری و استدلال پیروی می کنند (سالانه حدود 500000 ربات صنعتی جدید نصب می شود (IFR 2019 [OIR])). احتمالاً منصفانه است که بگوییم اگرچه سیستم های رباتیک نگرانی بیشتری را در عموم مردم ایجاد می کنند ، اما سیستم های هوش مصنوعی تأثیر بیشتری بر بشریت دارند. همچنین،

بنابراین می توان رباتیک و هوش مصنوعی را پوشش داد که دو مجموعه از سیستم های همپوشان را پوشش می دهد: سیستم هایی که فقط هوش مصنوعی هستند ، سیستم هایی که فقط رباتیک هستند و سیستم هایی که هر دو هستند. ما به هر سه علاقه مندیم. دامنه این مقاله نه تنها تقاطع ، بلکه اتحاد هر دو مجموعه است.
1.3 یادداشتی در مورد سیاست
سیاست تنها یکی از نگرانی های این مقاله است. در مورد اخلاق هوش مصنوعی بحث عمومی قابل توجهی وجود دارد و اظهارات مكرر سیاستمداران مبنی بر اینكه این امر به سیاست جدیدی احتیاج دارد ، گفتن این كار آسان تر است: برنامه ریزی و اجرای سیاست واقعی فناوری دشوار است. این می تواند اشکال مختلفی داشته باشد ، از مشوق ها و بودجه ، زیرساخت ها ، مالیات ها ، یا اظهارات حسن نیت ، گرفته تا مقررات توسط بازیگران مختلف و قانون. خط مشی برای هوش مصنوعی احتمالاً با اهداف دیگر سیاست فناوری یا سیاست کلی در تعارض خواهد بود. دولت ها ، پارلمان ها ، انجمن ها و محافل صنعتی در کشورهای صنعتی در سال های اخیر گزارش ها و مقالات سفید تهیه کرده اند و برخی شعارهای حسن نیت (“هوش مصنوعی قابل اعتماد / مسئول / انسانی / انسان محور / خوب / مفید”) ایجاد کرده اند ، اما آیا این همان چیزی است که لازم است؟ برای بررسی ، به Jobin ، Ienca مراجعه کنید ، اسناد و موسسات سیاست PT-AI .

برای افرادی که در اصول اخلاقی و سیاست کار می کنند ، ممکن است تمایل به دست کم گرفتن تأثیرات و تهدیدهای ناشی از یک فن آوری جدید وجود داشته باشد ، و تا حد ممکن مقررات فعلی (مثلاً برای مسئولیت محصولات) به دست کم بگیرند. از طرف دیگر ، این تمایل وجود دارد که مشاغل ، ارتش و برخی از ادارات دولتی “فقط صحبت کنند” و “اخلاق شویی” انجام دهند تا چهره عمومی خوبی حفظ شود و مانند گذشته ادامه یابد. در واقع اجرای مقررات قانونی الزام آور مدل ها و شیوه های موجود تجاری را به چالش می کشد. سیاست واقعی فقط اجرای نظریه اخلاق نیست ، بلکه منوط به ساختارهای قدرت اجتماعی است – و کارگزارانی که قدرت دارند ، علیه هر چیزی که آنها را محدود کند ، فشار خواهند آورد. بنابراین خطر مهمی وجود دارد که مقررات در برابر قدرت اقتصادی و سیاسی بدون دندان بماند.

اگرچه سیاست واقعی بسیار کمی تولید شده است ، اما برخی از موارد قابل توجه در این زمینه وجود دارد: آخرین سند سیاست اتحادیه اروپا نشان می دهد “هوش مصنوعی قابل اعتماد” باید قانونی ، اخلاقی و از نظر فنی قوی باشد ، و سپس این را به عنوان هفت نیاز بیان می کند: نظارت بر انسان ، مقاومت فنی ، حفظ حریم خصوصی و حاکمیت داده ها ، شفافیت ، انصاف ، رفاه و پاسخگویی (AI HLEG 2019 [OIR]). اکنون بسیاری از تحقیقات اروپایی با شعار “تحقیق و نوآوری مسئولانه” (RRI) انجام می شود و “ارزیابی فناوری” از زمان ظهور انرژی هسته ای یک زمینه استاندارد بوده است. اخلاق حرفه ای نیز یک زمینه استاندارد در فناوری اطلاعات است و این شامل مواردی است که در این مقاله مربوط می شوند. شاید یک “اصول اخلاقی” برای مهندسان هوش مصنوعی ، مشابه کدهای اخلاقی برای پزشکان پزشکی ، یک گزینه در اینجا باشد (ولیز 2019). آنچه خود دانش داده باید انجام دهد در (L. Taylor and Purtova 2019) مورد توجه قرار گرفته است. ما همچنین انتظار داریم که سیاستهای نهایی بجای کل حوزه ، کاربردهای خاص یا فناوریهای هوش مصنوعی و رباتیک را پوشش دهد. خلاصه ای مفید از یک چارچوب اخلاقی برای هوش مصنوعی در (گروه اروپایی اخلاق در علوم و فناوری های جدید 2018: 13ff) ارائه شده است. در مورد سیاست کلی هوش مصنوعی ، به Calo (2018) و همچنین Crawford and Calo (2016) مراجعه کنید. استال ، تیمرمانز و میتلشتات (2016) ؛ جانسون و وردیکیو (2017) ؛ و Giubilini و Savulescu (2018). زاویه سیاسی تری از فناوری اغلب در زمینه “مطالعات علوم و فناوری” (STS) مورد بحث قرار می گیرد. همانطور که کتابها دوست دارند خلاصه ای مفید از یک چارچوب اخلاقی برای هوش مصنوعی در (گروه اروپایی اخلاق در علوم و فناوری های جدید 2018: 13ff) ارائه شده است. در مورد سیاست کلی هوش مصنوعی ، به Calo (2018) و همچنین Crawford and Calo (2016) مراجعه کنید. استال ، تیمرمانز و میتلشتات (2016) ؛ جانسون و وردیکیو (2017) ؛ و Giubilini و Savulescu (2018). زاویه سیاسی تری از فناوری اغلب در زمینه “مطالعات علوم و فناوری” (STS) مورد بحث قرار می گیرد. همانطور که کتابها دوست دارند خلاصه ای مفید از یک چارچوب اخلاقی برای هوش مصنوعی در (گروه اروپایی اخلاق در علوم و فناوری های جدید 2018: 13ff) ارائه شده است. در مورد سیاست کلی هوش مصنوعی ، به Calo (2018) و همچنین Crawford and Calo (2016) مراجعه کنید. استال ، تیمرمانز و میتلشتات (2016) ؛ جانسون و وردیکیو (2017) ؛ و Giubilini و Savulescu (2018). زاویه سیاسی تری از فناوری اغلب در زمینه “مطالعات علوم و فناوری” (STS) مورد بحث قرار می گیرد. همانطور که کتابها دوست دارند زاویه سیاسی تری از فناوری اغلب در زمینه “مطالعات علوم و فناوری” (STS) مورد بحث قرار می گیرد. همانطور که کتابها دوست دارند زاویه سیاسی تری از فناوری اغلب در زمینه “مطالعات علوم و فناوری” (STS) مورد بحث قرار می گیرد. همانطور که کتابها دوست دارنداخلاق اختراع (Jasanoff 2016) نشان می دهد ، نگرانی در STS اغلب کاملاً شبیه به اخلاق است (Jacobs et al. 2019 [OIR]). در این مقاله ، ما سیاست مربوط به هر نوع مسئله را به طور جداگانه به جای هوش مصنوعی یا رباتیک به طور کلی بحث می کنیم.
2. بحث های اصلی
در این بخش ، موارد اخلاقی استفاده انسان از سیستم های هوش مصنوعی و رباتیک را که می توانند کم و بیش مستقل باشند ، بیان می کنیم – این بدان معناست که ما به موضوعاتی می پردازیم که با استفاده های خاص از فن آوری هایی که برای دیگران به وجود نمی آیند ، بوجود می آیند. به هر حال باید در نظر داشت که فناوری ها همیشه باعث سهولت برخی استفاده ها و در نتیجه تکرار آنها می شوند و مانع استفاده های دیگر می شوند. بنابراین طراحی مصنوعات فنی از لحاظ اخلاقی برای استفاده آنها دارای اهمیت اخلاقی است (Houkes and Vermaas 2010؛ Verbeek 2011) ، بنابراین فراتر از “استفاده مسئولانه” ، در این زمینه به “طراحی مسئولانه” نیز نیاز داریم. تمرکز بر استفاده پیش فرض این نیست که کدام یک از رویکردهای اخلاقی برای حل این مسائل مناسب ترند. اینها ممکن است به جای نتیجه گرایی یا مبتنی بر ارزش ، اخلاق فضیلت (Vallor 2017) باشند (فلوریدی و همکاران 2018).
2.1 حریم خصوصی و نظارت
یک بحث کلی در مورد حریم خصوصی و نظارت در فناوری اطلاعات وجود دارد (به عنوان مثال ، Macnish 2017 ؛ Roessler 2017) ، که عمدتا مربوط به دسترسی به داده ها و داده های خصوصی است که شخصاً قابل شناسایی است. حریم خصوصی چندین جنبه کاملاً شناخته شده دارد ، به عنوان مثال ، “حق رها شدن” ، حریم خصوصی اطلاعات ، حریم خصوصی به عنوان جنبه ای از شخصیت ، کنترل اطلاعات درباره خود و حق پنهان کاری (بنت و راآب 2006). مطالعات حریم خصوصی در طول تاریخ بر نظارت دولت توسط سرویس های مخفی متمرکز بوده است اما اکنون شامل نظارت توسط سایر مأموران دولت ، مشاغل و حتی افراد است. این فناوری در دهه های گذشته به میزان قابل توجهی تغییر کرده است در حالی که مقررات به کندی پاسخ می دهند (اگرچه مقررات (EU) 2016/679 وجود دارد) – نتیجه یک آنارشی خاص است که توسط قدرتمندترین بازیکنان مورد سو استفاده قرار می گیرد ،

حوزه دیجیتال بسیار گسترده شده است: همه جمع آوری و ذخیره داده ها اکنون دیجیتال است ، زندگی ما به طور فزاینده دیجیتال است ، بیشتر داده های دیجیتال به یک اینترنت متصل هستند ، و بیشتر از سنسور فن آوری استفاده می شود که داده های مربوط به جنبه های غیر دیجیتال را تولید می کند از زندگی ما هوش مصنوعی هم امکانات جمع آوری اطلاعات هوشمند و هم امکان تجزیه و تحلیل داده ها را افزایش می دهد. این امر برای نظارت پتو بر کل جمعیت و همچنین نظارت کلاسیک هدفمند اعمال می شود. علاوه بر این ، بیشتر داده ها بین نمایندگان معامله می شوند ، معمولاً با پرداخت هزینه.

در عین حال ، کنترل اینکه چه کسی داده ها را جمع آوری می کند و چه کسی دسترسی دارد ، در دنیای دیجیتال بسیار دشوارتر از آنچه در دنیای آنالوگ تماس های کاغذی و تلفنی انجام می شود ، است. بسیاری از فناوری های جدید هوش مصنوعی موارد شناخته شده را تقویت می کنند. به عنوان مثال ، تشخیص چهره در عکس ها و فیلم ها امکان شناسایی و در نتیجه مشخصات و جستجو برای افراد را فراهم می کند (Whittaker et al. 2018: 15ff). این کار با استفاده از تکنیک های دیگر برای شناسایی ، مانند “اثر انگشت دستگاه” که در اینترنت امری عادی است (که گاهی اوقات در “سیاست حفظ حریم خصوصی” نشان داده می شود) ادامه می یابد. نتیجه این است که “در این اقیانوس وسیع داده ها ، تصویری کاملاً ترسناک از ما وجود دارد” (Smolan 2016: 1:01). نتیجه مسلماً رسوایی است که هنوز مورد توجه عمومی قرار نگرفته است.

رد داده ای که از خود به جای می گذاریم نحوه پرداخت خدمات “رایگان” ماست – اما در مورد آن جمع آوری داده ها و ارزش این ماده اولیه جدید به ما نمی گویند ، و ما با این کار دست و پنجه نرم می کنیم که داده های بیشتری از این دست بگذاریم. به نظر می رسد برای 5 شرکت بزرگ (آمازون ، گوگل / آلفابت ، مایکروسافت ، اپل ، فیس بوک) ، قسمت اصلی جمع آوری داده های کسب و کار آنها مبتنی بر فریب ، بهره برداری از نقاط ضعف انسانی ، پیشبرد تعلل ، ایجاد اعتیاد و دستکاری است ( Harris 2016 [OIR]). تمرکز اصلی رسانه های اجتماعی ، بازی ها و بیشتر اینترنت در این “اقتصاد نظارتی” جلب توجه ، حفظ و توجه مستقیم – و در نتیجه تأمین اطلاعات است. “نظارت مدل کسب و کار اینترنت است” (اشنایر 2015). این اقتصاد نظارتی و توجه گاهی “سرمایه داری نظارتی” نامیده می شود (Zuboff 2019). این امر باعث تلاشهای زیادی برای فرار از چنگ این شرکتها شده است ، به عنوان مثال ، در تمرینات “مینیمالیسم” (نیوپورت 2019) ، گاهی اوقات از طریق جنبش منبع باز ، اما به نظر می رسد که شهروندان امروزی درجه خودمختاری لازم را برای از دست دادن در حالی که کاملاً به زندگی و کار خود ادامه می دهند ، فرار می کنند. اگر “مالکیت” در اینجا رابطه صحیح باشد ، ما مالکیت داده های خود را از دست داده ایم. مسلماً ، ما کنترل داده های خود را از دست داده ایم.

این سیستم ها غالباً حقایقی درباره ما را آشکار می کنند که خود ما می خواهیم آنها را سرکوب کنیم یا از آنها آگاهی نداریم: آنها بیش از آنچه که خودمان می شناسند درباره ما اطلاعات دارند. حتی فقط مشاهده رفتار آنلاین اجازه می دهد تا بینش در مورد شرایط روانی ما (Burr and Christianini 2019) و دستکاری (به بخش 2.2 نگاه کنید ). این امر خواستار محافظت از “داده های مشتق شده” شده است (Wachter and Mittelstadt 2019). هاراری با جمله آخرین کتاب پرفروش خود ، هومو دئوس ، در مورد عواقب طولانی مدت هوش مصنوعی می پرسد:

چه اتفاقی برای جامعه ، سیاست و زندگی روزمره خواهد افتاد که الگوریتم های ناآگاه اما بسیار باهوش ما را بهتر از خود بشناسند؟ (2016: 462)

دستگاههای رباتیک بجز گشت امنیتی هنوز نقش عمده ای در این زمینه نداشته اند ، اما با رواج بیشتر آنها در خارج از محیط های صنعت ، این تغییر خواهد کرد. همراه با “اینترنت اشیا” ، سیستم های به اصطلاح “هوشمند” (تلفن ، تلویزیون ، فر ، لامپ ، دستیار مجازی ، خانه ، …) ، “شهر هوشمند” (Sennett 2018) و “حکمرانی هوشمند” ، قرار است به بخشی از ماشین جمع آوری داده تبدیل شود که داده های دقیق تر ، از انواع مختلف را در زمان واقعی و با اطلاعات بیشتر ارائه می دهد.

تکنیک های حفظ حریم خصوصی که می تواند هویت افراد یا گروه ها را تا حد زیادی پنهان کند ، اکنون یک ماده اصلی در علم داده است. آنها شامل ناشناس ماندن (نسبی) ، کنترل دسترسی (به علاوه رمزگذاری) و مدلهای دیگری هستند که در آنها محاسبات با داده های ورودی کاملاً یا جزئی رمزگذاری شده انجام می شود (استال و رایت 2018). در مورد “حریم خصوصی افتراقی” ، این کار با اضافه کردن نویز کالیبره شده برای رمزگذاری خروجی درخواست ها انجام می شود (Dwork et al. 2006؛ Abowd 2017). در حالی که به تلاش و هزینه بیشتری نیاز دارید ، چنین تکنیک هایی می توانند از بسیاری از مسائل حریم خصوصی جلوگیری کنند. برخی از شرکت ها نیز حریم خصوصی بهتر را یک مزیت رقابتی می دانند که می توان از آن استفاده کرد و با قیمتی فروخت.

یکی از عمده ترین مشکلات عملی ، اجرای واقعی مقررات است ، هم در سطح دولت و هم در سطح فردی که ادعا دارد. آنها باید شخصیت حقوقی مسئول را شناسایی کنند ، اقدام را اثبات کنند ، احتمالاً قصد را ثابت کنند ، دادگاهی پیدا کنند که خود را صالح اعلام کند … و در نهایت دادگاه را مجبور به اجرای واقعی تصمیم خود کند. حمایت حقوقی کاملاً مطابق با حقوقی مانند حقوق مصرف کننده ، مسئولیت محصول و سایر مسئولیت های مدنی یا حمایت از حقوق مالکیت معنوی ، غالباً در محصولات دیجیتال وجود ندارد و یا اجرای آن سخت است. این بدان معناست که شرکتهایی که سابقه “دیجیتالی” دارند ، بدون ترس از مسئولیت ، ضمن دفاع شدید از حقوق مالکیت معنوی خود ، عادت دارند محصولات خود را بر روی مصرف کنندگان آزمایش کنند.
2.2 دستکاری رفتار
مسائل اخلاقی هوش مصنوعی در نظارت فراتر از صرف انباشت داده ها و جهت توجه است: آنها شامل استفاده می شونداز اطلاعات برای دستکاری رفتار ، بصورت آنلاین و آفلاین ، به روشی که انتخاب منطقی خودمختار را تضعیف کند. البته تلاش برای دستکاری رفتار بسیار قدیمی است ، اما ممکن است وقتی از سیستم های هوش مصنوعی استفاده می کنند کیفیت جدیدی پیدا کنند. با توجه به تعامل شدید کاربران با سیستم های داده و دانش عمیق در مورد افراد ، این افراد در معرض “تحریکات” ، دستکاری و فریب قرار دارند. با داشتن داده های قبلی کافی ، از الگوریتم ها می توان برای هدف قرار دادن افراد یا گروه های کوچک فقط با نوع ورودی استفاده کرد که احتمالاً این افراد خاص را تحت تأثیر قرار می دهد. “برهنه کردن” محیط را به گونه ای تغییر می دهد که بر روشی قابل پیش بینی تأثیر می گذارد که برای فرد مثبت باشد ، اما اجتناب از آن آسان و ارزان است (Thaler & Sunstein 2008). از اینجا یک شیب لغزنده وجود دارد تا پدرانه و دستکاری شود.

بسیاری از تبلیغ کنندگان ، بازاریابان و فروشندگان آنلاین برای به حداکثر رساندن سود ، از جمله سو means استفاده از سوگیری رفتار ، فریب و تولید اعتیاد (Costa and Halpern 2019 [OIR]) از هر روش قانونی که در اختیار دارند استفاده می کنند. چنین دستکاری مدل کسب و کار در بسیاری از صنایع قمار و بازی است ، اما در حال گسترش است ، به عنوان مثال ، به خطوط هوایی ارزان قیمت. در طراحی رابط در صفحات وب یا بازی ها ، این دستکاری از آنچه “الگوهای تاریک” نامیده می شود استفاده می کند (ماتور و همکاران 2019). در این لحظه ، قمار و فروش مواد اعتیاد آور بسیار تنظیم شده است ، اما دستکاری و اعتیاد آنلاین چنین نیست – حتی اگر دستکاری در رفتار آنلاین در حال تبدیل شدن به یک مدل اصلی کسب و کار در اینترنت باشد.

علاوه بر این ، شبکه های اجتماعی اکنون مکان اصلی تبلیغات سیاسی است. از این تأثیر می توان برای هدایت رفتار رای گیری استفاده کرد ، مانند “رسوایی” فیس بوک-کمبریج آنالیتیکا (وولی و هوارد 2017 ؛ بردشاو ، نودرت و هوارد 2019) و – در صورت موفقیت – ممکن است به استقلال افراد آسیب برساند (سوسر ، روسلر و Nissenbaum 2019).

فناوری های پیشرفته “جعل” هوش مصنوعی آنچه را که قبلاً قابل اعتماد بود ، به شواهدی غیرقابل اعتماد تبدیل می کنند – این اتفاق قبلاً برای عکس های دیجیتال ، ضبط صدا و فیلم رخ داده است. به زودی تهیه (به جای تغییر) متن ، عکس و فیلم “جعلی عمیق” با هر محتوای دلخواه کاملاً آسان خواهد بود. به زودی ، تعامل پیچیده در زمان واقعی با افراد از طریق متن ، تلفن یا ویدیو نیز جعل می شود. بنابراین در حالی که به طور فزاینده ای به چنین تعاملات وابسته ایم ، نمی توانیم به تعاملات دیجیتالی اعتماد کنیم.

یک مسئله خاص دیگر این است که تکنیک های یادگیری ماشین در هوش مصنوعی به آموزش با حجم عظیمی از داده ها متکی هستند. این بدان معناست که غالباً بین حریم خصوصی و حقوق داده ها در مقابل کیفیت فنی محصول معامله وجود دارد. این بر ارزیابی نتیجه گرایانه از اقدامات نقض حریم خصوصی تأثیر می گذارد.

این سیاست در این زمینه فراز و نشیب هایی دارد: آزادی های مدنی و حمایت از حقوق فردی تحت فشار شدید لابی مشاغل ، سرویس های مخفی و سایر نهادهای دولتی قرار دارند که به نظارت بستگی دارند. هنگام برقراری ارتباط بر اساس نامه ها ، ارتباطات تلفنی آنالوگ و مکالمه شخصی و نظارت بر محدودیت های قانونی قابل توجه ، محافظت از حریم خصوصی در مقایسه با عصر قبل از دیجیتال بسیار کاهش یافته است.

در حالی که آیین نامه عمومی حفاظت از داده های اتحادیه اروپا (مقررات (EU) 2016/679) حفاظت از حریم خصوصی را تقویت کرده است ، ایالات متحده و چین رشد را با تنظیم مقررات کمتر (تامپسون و برمر 2018) ترجیح می دهند ، احتمالاً به این امید که این یک مزیت رقابتی باشد. واضح است که بازیگران دولت و تجارت توانایی خود در حمله به حریم خصوصی و دستکاری افراد را با کمک فناوری هوش مصنوعی افزایش داده اند و این کار را برای پیشبرد منافع خاص خود ادامه خواهند داد – مگر اینکه توسط سیاست به نفع جامعه عمومی باشد.
2.3 میزان شفافیت سیستم های AI
عدم شفافیت و تعصب موضوعات اصلی در مواردی است که امروزه گاهی اوقات “اخلاق داده” یا “اخلاق کلان داده” نامیده می شود (فلوریدی و تادئو 2016 ؛ میتلشتات و فلوریدی 2016). سیستم های هوش مصنوعی برای پشتیبانی از تصمیم گیری خودکار و “تجزیه و تحلیل پیش بینی” “نگرانی های قابل توجهی در مورد کمبود روند دادرسی ، پاسخگویی ، مشارکت جامعه و حسابرسی” ایجاد می کنند (Whittaker et al. 2018: 18ff). آنها بخشی از یک ساختار قدرت هستند که در آن “ما در حال ایجاد فرایندهای تصمیم گیری هستیم که فرصت های مشارکت انسانی را محدود و محدود می کنند” (داناهر 2016b: 245). در همان زمان ، اغلب برای شخص مبتلا غیرممکن است که بداند چگونه سیستم به این خروجی رسیده است ، یعنی سیستم برای آن شخص “مات” است. اگر این سیستم شامل یادگیری ماشین باشد ، به طور معمول حتی برای متخصص ، که نمی داند چگونه یک الگوی خاص شناسایی شده است ، مات خواهد بود ، یا حتی الگوی آن چیست. تعصب در سیستم های تصمیم گیری و مجموعه داده ها با این کدورت بیشتر می شود. بنابراین ، حداقل در مواردی که تمایل به حذف تعصب وجود دارد ، تجزیه و تحلیل کدورت و تعصب دست به دست می دهد و پاسخ سیاسی باید هر دو مسئله را با هم حل کند.

بسیاری از سیستم های هوش مصنوعی به تکنیک های یادگیری ماشین در شبکه های عصبی (شبیه سازی شده) متکی هستند که الگوهایی را از یک مجموعه داده خاص ، با یا بدون راه حل های “صحیح” ارائه می دهند. یعنی تحت نظارت ، نیمه نظارت یا بدون نظارت. با استفاده از این تکنیک ها ، “یادگیری” الگوهایی را در داده ها ضبط می کند و به گونه ای برچسب گذاری می شود که برای تصمیمی که سیستم می گیرد مفید به نظر برسد ، در حالی که برنامه نویس واقعاً نمی داند کدام یک الگوهای داده ای که سیستم از آن استفاده کرده است. در حقیقت ، برنامه ها در حال تکامل هستند ، بنابراین وقتی داده های جدید وارد می شوند یا بازخورد جدید می گیرند (“این درست بود” ، “این نادرست بود”) ، الگوهای مورد استفاده در سیستم یادگیری تغییر می کنند. معنی این امر این است که نتیجه برای کاربر یا برنامه نویسان شفاف نیست: مات است. بعلاوه ، کیفیت برنامه تا حد زیادی به کیفیت داده های ارائه شده بستگی دارد ، به دنبال شعار قدیمی “زباله ، زباله بیرون”. بنابراین ، اگر داده ها از قبل دارای تعصب باشند (به عنوان مثال ، داده های پلیس در مورد رنگ پوست مظنونان) ، برنامه این تعصب را تولید می کند. پیشنهادهایی برای توصیف استاندارد مجموعه داده ها در “صفحه داده” وجود دارد که شناسایی چنین سوگیری را عملی تر می کند (Gebru et al. 2018 [OIR]). همچنین اخیراً در مورد محدودیت های سیستم های یادگیری ماشین که اساساً فیلتر داده های پیچیده ای هستند ، ادبیات قابل توجهی وجود دارد (مارکوس 2018 [OIR]). برخی اظهار داشتند که مشکلات اخلاقی امروز نتیجه “میانبرهای” فنی است که هوش مصنوعی در پیش گرفته است (کریستینینی آینده).

چندین فعالیت فنی وجود دارد که هدف آن “هوش مصنوعی قابل توضیح” است ، با شروع (Van Lent، Fisher، and Mancuso 1999؛ Lomas et al. 2012) و ، اخیراً ، یک برنامه DARPA (Gunning 2017 [OIR]). به طور گسترده تر ، تقاضا برای

مکانیزمی برای روشن و بیان ساختارهای قدرت ، تعصبات و تأثیراتی که مصنوعات محاسباتی در جامعه اعمال می کنند (دیاکوپولوس 2015: 398)

گاهی اوقات “گزارش پاسخگویی الگوریتمی” نامیده می شود. این بدان معنا نیست که ما از هوش مصنوعی انتظار داریم “استدلال خود را توضیح دهد” – انجام چنین کاری مستلزم استقلال اخلاقی جدی تری از آنچه در حال حاضر به سیستم های هوش مصنوعی نسبت می دهیم ، می باشد (نگاه کنید به زیر بند 2.10 )

سیاستمدار هنری کیسینجر خاطرنشان کرد که اگر به سیستمی اعتماد کنیم که ظاهراً از انسان برتر است اما نمی تواند تصمیمات آن را توضیح دهد ، یک تصمیم اساسی برای تصمیم گیری دموکراتیک وجود دارد. او می گوید ما ممکن است “در جستجوی یک فلسفه راهنما ، یک فناوری بالقوه مسلط ایجاد کرده باشیم” (کیسینجر 2018). Danaher (2016b) این مشکل را “تهدید الگوکراسی” می نامد (استفاده قبلی از “الگوکراسی” از Aneesh 2002 [OIR] ، 2006). به همین ترتیب ، Cave (2019) تأکید می کند که ما به یک حرکت گسترده تر جامعه به سمت تصمیم گیری “دموکراتیک” تر احتیاج داریم تا از مصنوعی بودن نیرویی که منجر به یک سیستم سرکوب غیر قابل نفوذ به سبک Kafka در مدیریت عمومی و سایر کشورها می شود ، جلوگیری کنیم. زاویه سیاسی این بحث توسط اونیل در کتاب تأثیرگذار خود با نام ” سلاح های تخریب ریاضی” تأکید شده است (2016) ، و توسط Yeung and Lodge (2019).

در اتحادیه اروپا ، برخی از این موارد با (آیین نامه (EU) 2016/679) در نظر گرفته شده است ، که پیش بینی می کند مصرف کنندگان ، وقتی با تصمیم مبتنی بر پردازش داده ها روبرو می شوند ، “حق توضیح” قانونی دارند – این که چقدر پیش می رود و تا چه حد قابل اجراست مورد مناقشه است (گودمن و فلکسمن 2017 ؛ واچر ، میتلشتات و فلوریدی 2016 ؛ واچر ، میتلشتات و راسل 2017). زریلی و همکاران (2019) استدلال می کنند که ممکن است یک استاندارد دوگانه وجود داشته باشد ، جایی که ما خواستار توضیح بالایی برای تصمیمات مبتنی بر ماشین هستیم علی رغم اینکه انسانها بعضی اوقات خودشان به آن استاندارد نمی رسند.
2.4 سوگیری در سیستم های تصمیم گیری
سیستم های پشتیبانی تصمیم گیری هوش مصنوعی خودکار و “تجزیه و تحلیل پیش بینی” بر روی داده ها کار می کنند و به عنوان “خروجی” تصمیم می گیرند. این خروجی ممکن است از نسبتاً پیش پا افتاده تا بسیار قابل توجه باشد: “این رستوران با ترجیحات شما مطابقت دارد” ، “بیمار در این اشعه ایکس رشد استخوان خود را کامل کرده است” ، “درخواست کارت اعتباری کاهش یافته است” ، “عضوی که اهدا می کند بیمار دیگر “،” وثیقه رد می شود “یا” هدف شناسایی شده و درگیر می شود “. تجزیه و تحلیل داده ها اغلب در “تجزیه و تحلیل پیش بینی” در تجارت ، مراقبت های بهداشتی و سایر زمینه ها برای پیش بینی تحولات آینده استفاده می شود – از آنجا که پیش بینی آسان تر است ، کالای ارزان تری نیز خواهد شد. یک استفاده از پیش بینی در “پلیس پیش بینی” (NIJ 2014 [OIR]) است ، که بسیاری از آنها می ترسند ممکن است منجر به فرسایش آزادی های عمومی شود (فرگوسن 2017) زیرا می تواند قدرت را از افرادی که رفتار آنها پیش بینی می شود ، بگیرد. با این حال ، به نظر می رسد که بسیاری از نگرانی ها در مورد پلیس بستگی به سناریوهای مربوط به آینده دارد که اجرای قانون اقدامات پیش بینی شده را مجازات می کند ، نه اینکه منتظر بماند تا ارتکاب جرم (مانند فیلم 2002 “گزارش اقلیت ها”). یک نگرانی این است که این سیستم ها ممکن است تعصبی را که قبلاً در داده های مورد استفاده برای راه اندازی سیستم وجود داشت ، تداوم دهند ، به عنوان مثال ، با افزایش گشت های پلیس در یک منطقه و کشف جرایم بیشتر در آن منطقه. تکنیک های واقعی “پلیس پیش بینی” یا “پلیس منجر به اطلاعات” عمدتا به این سوال مربوط می شود که نیروهای پلیس کجا و چه زمانی بیشتر مورد نیاز خواهند بود. همچنین ، در نرم افزار پشتیبانی از گردش کار (به عنوان مثال ، “ArcGIS”) می توان داده های بیشتری را به افسران پلیس ارائه داد ، به آنها امکان کنترل بیشتر و تسهیل تصمیم گیری بهتر را می دهد. اینکه آیا این مسئله مشکل ساز است به اعتماد مناسب به کیفیت فنی این سیستم ها و ارزیابی اهداف کار پلیس بستگی دارد. شاید یک عنوان مقاله اخیر به جهتی درست در اینجا اشاره داشته باشد: “اخلاق هوش مصنوعی در پلیس پیش بینی: از مدل های تهدید به اخلاق مراقبت” (Asaro 2019).

تعصب معمولاً وقتی قضاوتهای ناعادلانه انجام می شود ظاهر می شود زیرا فردی که قضاوت می کند تحت تأثیر خصوصیاتی قرار می گیرد که در واقع به موضوع مورد نظر ربطی ندارد ، نوعاً یک پیش فرض تبعیض آمیز درباره اعضای یک گروه است. بنابراین ، یک نوع تعصب ویژگی شناختی آموخته شده یک فرد است ، که اغلب صریح نیست. فرد مورد نظر ممکن است از داشتن چنین تعصبی آگاه نباشد – حتی ممکن است صادقانه و صریحاً با تعصبی که مشخص می شود مخالف باشد (مثلاً از طریق پرایمینگ ، رجوع کنید به گراهام و لولری 2004). در مورد انصاف در مقابل تعصب در یادگیری ماشین ، به Binns (2018) مراجعه کنید.

جدا از پدیده اجتماعی سوگیری تعصبی ، سیستم شناختی انسان به طور کلی مستعد ابتلا به انواع “سوگیری شناختی” است ، به عنوان مثال “سوگیری تأیید”: انسان تمایل دارد اطلاعات را به عنوان تأیید آنچه قبلاً باور داشته اند ، تفسیر کند. گفته می شود که این شکل دوم تعصب مانع عملکرد در قضاوت منطقی است (Kahnemann 2011) – اگرچه حداقل برخی تعصبات شناختی یک مزیت تکاملی ایجاد می کند ، به عنوان مثال ، استفاده اقتصادی از منابع برای قضاوت شهودی. این سال وجود دارد که آیا سیستم های هوش مصنوعی می توانند چنین تعصب شناختی داشته باشند یا باید داشته باشند؟

شکل سوم تعصب در داده ها وجود دارد که دارای خطای سیستماتیک باشد ، به عنوان مثال “تعصب آماری”. دقیقاً ، هر مجموعه داده خاص فقط برای یک نوع مسئله بی طرفانه خواهد بود ، بنابراین صرف ایجاد یک مجموعه داده این خطر را به وجود می آورد که ممکن است برای نوع دیگری از موضوع استفاده شود ، و سپس معلوم می شود که برای آن نوع مغرضانه است. یادگیری ماشینی بر اساس چنین داده هایی نه تنها نمی تواند تعصب را تشخیص دهد ، بلکه “تعصب تاریخی” را مدون و خودکار می کند. چنین تعصب تاریخی در سیستم غربالگری استخدام خودکار در آمازون (متوقف شد در اوایل سال 2017) که علیه زنان تبعیض قائل شد کشف شد – احتمالاً به این دلیل که این شرکت سابقه تبعیض علیه زنان در روند استخدام را داشته است. “پروفایل مدیریت مجرمان اصلاحی برای مجازات های جایگزین” (COMPAS) ، سیستمی برای پیش بینی اینکه آیا یک متهم دوباره جرم خواهد زد ، مشخص شد که به همان اندازه که یک گروه از انسانهای تصادفی (درسل و فرید 2018) به موفقیت رسیده است (صحت 65.2 درصد) و برای متهمان سیاه پوست مثبت و کاذب منفی کاذب بیشتری ایجاد می کند. بنابراین مشکل چنین سیستم هایی تعصب به علاوه اعتماد بیش از حد انسان به سیستم ها است. ابعاد سیاسی چنین سیستم های خودکار در ایالات متحده آمریکا در Eubanks (2018) بررسی شده است.

تلاش های فنی قابل توجهی برای شناسایی و حذف سوگیری از سیستم های هوش مصنوعی وجود دارد ، اما منصفانه است که بگوییم این مراحل در مراحل اولیه است: به موسسه هوش مصنوعی اخلاقی و یادگیری ماشین در انگلستان مراجعه کنید (Brownsword، Scotford، and Yeung 2017؛ Yeung and Lodge 2019) . به نظر می رسد اصلاحات تکنولوژیکی محدودیت های آنها در این است که آنها به یک مفهوم ریاضی انصاف احتیاج دارند ، که به سختی می توان به آن دست یافت (Whittaker et al. 2018: 24ff؛ Selbst et al. 2019) ، همانطور که مفهوم رسمی “نژاد” است ( رجوع کنید به بنتال و هاینز 2019). یک پیشنهاد نهادی در (Veale and Binns 2017) است.
2.5 تعامل انسان و ربات
تعامل انسان و ربات (HRI) به خودی خود یک زمینه آکادمیک است ، که اکنون توجه قابل توجهی به موضوعات اخلاقی ، پویایی ادراک از هر دو طرف ، و هر دو منافع مختلف موجود و پیچیدگی زمینه های اجتماعی ، از جمله همکاری می کند. -کار (به عنوان مثال ، آرنولد و شوتز 2017). نظرسنجی های مفید برای اخلاق رباتیک شامل Calo ، Froomkin و Kerr (2016) است. Royakkers and van Est (2016) ؛ Tzafestas (2016) ؛ مجموعه استاندارد مقالات Lin ، Abney و Jenkins (2017) است.

در حالی که می توان از هوش مصنوعی برای دستکاری انسان در ایمان و انجام کارها استفاده کرد ( بخش 2.2 را ببینید) ، همچنین می تواند برای رانندگی رباتهایی مورد استفاده قرار گیرد که اگر فرآیندها یا شکل ظاهری آنها فریبکاری ، حیثیت انسانی را تهدید کند یا الزام “احترام به بشریت” کانتی را نقض کند. انسانها خیلی راحت خصوصیات ذهنی را به اشیا نسبت می دهند و با آنها همدلی می کنند ، مخصوصاً وقتی که ظاهر خارجی این اشیا شبیه به موجودات زنده باشد. این می تواند برای فریب انسانها (یا حیوانات) نسبت داده شود تا اهمیت روحی یا حتی عاطفی بیشتری به رباتها یا سیستمهای هوش مصنوعی بیش از آنچه شایسته آنها هستند ، بدهند. برخی از قسمتهای رباتیک انسان نما در این زمینه مشکل ساز هستند (به عنوان مثال ، جمینوئیدهای کنترل از راه دور هیروشی ایشیگورو) ، و مواردی وجود دارد که برای اهداف روابط عمومی (به عنوان مثال در مورد توانایی های “سوفیا” هانسون رباتیک) فریبنده بوده است. البته، برخی از محدودیت های اساسی اخلاق و قانون تجارت در مورد ربات ها نیز اعمال می شود: ایمنی و مسئولیت محصول یا عدم فریب در تبلیغات. به نظر می رسد که این محدودیت های موجود از بسیاری از نگرانی های مطرح شده مراقبت می کنند. با این حال مواردی وجود دارد که تعامل انسان و انسان جنبه هایی دارد که به طور خاص انسان به نظر می رسد به گونه ای که شاید با روبات جایگزین نشود: مراقبت ، عشق و رابطه جنسی
2.5.1 مثال (الف) ربات های مراقبتی
استفاده از روبات در مراقبت های بهداشتی برای انسان در حال حاضر در سطح مطالعات مفهومی در محیط های واقعی است ، اما ممکن است طی چند سال به یک فن آوری قابل استفاده تبدیل شود و نگرانی های زیادی را برای آینده dystopian مراقبت های غیر انسانی ایجاد کرده است ( A. Sharkey and N. Sharkey 2011؛ ​​Robert Sparrow 2016). سیستم های کنونی شامل ربات هایی هستند که از مراقبان و مراقبان انسانی پشتیبانی می کنند (به عنوان مثال ، در بلند کردن بیماران یا حمل مواد) ، ربات هایی که بیماران را قادر می سازند کارهای خاصی را انجام دهند (مثلاً با بازوی رباتیک غذا بخورند) ، اما همچنین ربات هایی که به بیماران داده می شوند. به عنوان یک شرکت و راحتی (به عنوان مثال ، مهر و موم ربات “Paro”). برای یک مرور کلی ، به ون وینزبرگ (2016) مراجعه کنید ؛ Nørskov (2017) ؛ Fosch-Villaronga و Albo-Canals (2019) ، برای بررسی کاربران Draper و همکاران. (2014).

یکی از دلایل مطرح شدن موضوع مراقبت این است که مردم استدلال کرده اند که ما در جوامع پیری به روبات نیاز خواهیم داشت. این استدلال فرضیاتی مشکل ساز را ایجاد می کند ، یعنی اینکه با طول عمر بیشتر افراد به مراقبت بیشتری احتیاج خواهند داشت و اینکه نمی توان انسان بیشتری را به مشاغل مراقبتی جذب کرد. همچنین ممکن است تعصبی در مورد سن نشان دهد (جکر در آینده ارائه می شود). مهمتر از همه ، این طبیعت اتوماسیون را نادیده می گیرد ، که فقط به جای جایگزینی انسان نیست ، بلکه به انسان اجازه می دهد تا کار موثرتر انجام دهد. کاملاً روشن نیست که در اینجا واقعاً مسئله ای وجود داشته باشد زیرا بحث بیشتر بر ترس از مراقبت از انسان زدایی از ربات ها متمرکز است ، اما ربات های واقعی و قابل پیش بینی در مراقبت ربات های کمکی برای اتوماسیون کلاسیک وظایف فنی هستند. بنابراین آنها فقط “روبات مراقبت” از نظر رفتاری برای انجام وظایف در محیط های مراقبت هستند ، نه به معنای “مراقبت” انسان از بیماران. به نظر می رسد که موفقیت “مراقبت” به این حس عمدی “مراقبت” بستگی دارد ، روباتی که قابل پیش بینی نیستند. در صورت وجود ، خطر مراقبت از روبات ها این است عدم وجود چنین مراقبت های عمدی – زیرا ممکن است کمتر مراقب انسانی لازم باشد. جالب است که مراقبت از چیزی ، حتی یک عامل مجازی ، می تواند برای خود مراقب خوب باشد (لی و همکاران 2019). سیستمی که وانمود می کند مراقبت می کند فریبنده و در نتیجه مسئله ساز خواهد بود – مگر اینکه با فریب و فریب با سود کافی بزرگ مقابله کند (Coeckelbergh 2016). برخی از روبات هایی که در سطح پایه وانمود می کنند “مراقبت” می کنند در دسترس هستند (مهر و موم Paro) و برخی دیگر در حال ساخت هستند. شاید تا حدودی احساس مراقبت از یک دستگاه برای بیماران آینده پیشرفت باشد.
2.5.2 مثال (ب) ربات های جنسی
توسط چندین خوش بین فن آوری استدلال شده است که انسانها احتمالاً علاقه مند به رابطه جنسی و معاشرت با ربات ها خواهند بود و از این ایده راحت خواهند بود (Levy 2007). با توجه به تنوع ترجیحات جنسی انسان ، از جمله اسباب بازی های جنسی و عروسک های جنسی ، این امر بسیار محتمل به نظر می رسد: س isال این است که آیا چنین دستگاه هایی باید تولید و تبلیغ شوند و آیا محدودیت هایی در این منطقه لمس کننده وجود دارد؟ به نظر می رسد که در دوره های اخیر به جریان اصلی “فلسفه ربات” (سالینز 2012 ؛ داناهر و مک آرتور 2017 ؛ N. شارکی و همکاران 2017 [OIR] ؛ بندل 2018 ؛ Devlin 2018) وارد شده است.

مدتهاست که انسانها وابستگیهای عاطفی عمیقی به اشیا had دارند ، بنابراین شاید همراهی یا حتی عشق با یک آندروید قابل پیش بینی جذاب باشد ، خصوصاً برای افرادی که با انسانهای واقعی دست و پنجه نرم می کنند و قبلاً سگ ، گربه ، پرنده ، کامپیوتر یا تاماگوتچی را ترجیح می دهند. Danaher (2019b) علیه (Nyholm و Frank 2017) استدلال می کند که این می تواند دوستی واقعی باشد و بنابراین هدفی ارزشمند است. مطمئناً به نظر می رسد که چنین دوستی ممکن است سودمندی کلی را افزایش دهد ، حتی اگر عمیق نباشد. در این بحث ها مسئله فریب وجود دارد ، زیرا یک ربات نمی تواند (در حال حاضر) به معنای آنچه می گوید ، یا احساساتی نسبت به یک انسان داشته باشد. کاملاً مشهور است که انسانها مستعد هستند احساسات و افکار را به موجوداتی نسبت دهند که مثل اینکه دارای احساساتی هستند ، حتی به اشیای کاملاً بی روح که اصلاً رفتاری نشان نمی دهند نسبت دهند. همچنین ، به نظر می رسد پرداخت هزینه فریب بخشی اساسی از صنعت سنتی جنس باشد.

سرانجام ، نگرانی هایی وجود دارد که غالباً جنسیت را همراهی کرده اند ، یعنی رضایت (فرانک و نیهولم 2017) ، نگرانی های زیبایی شناختی و نگرانی از اینکه “ممکن است انسان توسط تجارب خاص” خراب شود ” اگرچه به نظر می رسد قدیمی ، این رفتار انسان را تحت تأثیر تجربه قرار می دهد ، و احتمالاً پورنوگرافی یا روبات های جنسی از ادراک سایر انسانها به عنوان یک مورد تمایل یا حتی دریافت کنندگان سو abuse استفاده پشتیبانی می کنند و بنابراین یک تجربه جنسی و اروتیک عمیق تر را از بین می برند . در همین راستا ، “کمپین علیه ربات های جنسی” استدلال می کند که این دستگاه ها ادامه بردگی و فحشا هستند (Richardson 2016).
2.6 اتوماسیون و اشتغال
به نظر واضح است که هوش مصنوعی و رباتیک منجر به دستاورد قابل توجهی در بهره وری و در نتیجه ثروت کلی خواهد شد. تلاش برای افزایش بهره وری اغلب از ویژگی های اقتصاد بوده است ، اگرچه تأکید بر “رشد” یک پدیده مدرن است (Harari 2016: 240). با این حال ، افزایش بهره وری از طریق اتوماسیون به طور معمول به این معنی است که برای تولید یکسان تعداد کمتری از انسان مورد نیاز است. این لزوماً به معنای از دست دادن اشتغال کلی نیست ، زیرا ثروت موجود افزایش می یابد و این می تواند تقاضا را به اندازه کافی افزایش دهد تا با بهره وری مقابله کند. در بلند مدت ، بهره وری بالاتر در جوامع صنعتی منجر به ثروت بیشتر در کل شده است. در گذشته اختلالات عمده بازار کار اتفاق افتاده است ، به عنوان مثال ، کشاورزی در سال 1800 بیش از 60٪ نیروی کار را در اروپا و آمریکای شمالی استخدام می کرد ، در حالی که تا سال 2010 تقریباً استخدام می کرد. 5٪ در اتحادیه اروپا ، و حتی در ثروتمندترین کشورها نیز کمتر است (کمیسیون اروپا 2013). در 20 سال بین 1950 و 1970 تعداد کارگران کشاورزی استخدام شده در انگلیس 50 درصد کاهش یافت (زاید و لافت 2019). برخی از این اختلالات منجر به این می شود که صنایع پرمشغله بیشتر به مکانهایی با هزینه نیروی کار کمتر منتقل شوند. این فرایند در حال انجام است.

اتوماسیون کلاسیک جایگزین عضله انسان می شود ، در حالی که اتوماسیون دیجیتال جایگزین فکر یا پردازش اطلاعات انسان می شود – و بر خلاف ماشین های فیزیکی ، کپی دیجیتال بسیار ارزان است (کپی برداری از بوستروم و یودکوفسکی 2014). بنابراین ممکن است به معنای تغییر بنیادی در بازار کار باشد. بنابراین ، سوال اصلی این است: آیا این بار تأثیرات متفاوت خواهد بود؟ آیا ایجاد شغل و ثروت جدید با نابودی مشاغل همراه خواهد بود؟ و حتی اگر متفاوت نباشد ، هزینه های انتقال چقدر است و چه کسی آنها را تحمل می کند؟ آیا برای توزیع عادلانه هزینه ها و مزایای اتوماسیون دیجیتال لازم است تعدیلات اجتماعی انجام دهیم؟

پاسخ ها به مسئله بیکاری ناشی از هوش مصنوعی از هشداردهنده (فری و آزبورن 2013 ؛ وستلیک 2014) تا خنثی (متکالف ، کلر و بوید 2016 [OIR] ؛ کالو 2018 ؛ فری 2019) تا خوش بینانه (برینجولفسون و مک آفی) 2016 ؛ Harari 2016 ؛ Danaher 2019a). در اصل ، به نظر می رسد تأثیر اتوماسیون در بازار کار به خوبی شامل دو کانال است:

(i) ماهیت تعاملات بین کارگران با مهارت متفاوت و فن آوری های جدید که بر تقاضای کار تأثیر می گذارد و (ii) اثرات تعادل پیشرفت فناوری از طریق تغییرات متعاقب در عرضه نیروی کار و بازارهای محصول. (Goos 2018: 362)

آنچه در حال حاضر به نظر می رسد در بازار کار به دلیل هوش مصنوعی و اتوماسیون رباتیک اتفاق افتاده است ، “قطبش شغلی” یا شکل “دمبل” است (Goos ، Manning و Salomons 2009): مشاغل فنی بسیار ماهر مورد تقاضا و پردرآمد هستند ، مشاغل خدماتی دارای مهارت کم مورد تقاضا و بد درآمد هستند ، اما مشاغل دارای مدرک متوسط ​​در کارخانه ها و دفاتر ، یعنی اکثر مشاغل تحت فشار هستند و کاهش می یابند زیرا نسبتاً قابل پیش بینی هستند و به احتمال زیاد خودکار خواهند بود (بالدوین 2019 )

شاید افزایش بهره وری عظیم باعث شود که “عصر اوقات فراغت” محقق شود ، چیزی (کینز 1930) پیش بینی کرده بود که در حدود سال 2030 اتفاق می افتد ، با فرض رشد 1٪ در سال. در واقع ، ما قبلاً به سطحی رسیده ایم که وی برای سال 2030 پیش بینی کرده بود ، اما هنوز در حال کار هستیم – بیشتر مصرف می کنیم و سطح سازمان بیشتری را اختراع می کنیم. هاراری توضیح می دهد که چگونه این توسعه اقتصادی به بشریت اجازه داد بر گرسنگی ، بیماری و جنگ غلبه کند – و اکنون ما برای جاودانگی و سعادت ابدی از طریق هوش مصنوعی هدف داریم ، بنابراین عنوان او Homo Deus (Harari 2016: 75).

به طور کلی ، مسئله بیکاری موضوعی است در مورد چگونگی توزیع عادلانه کالاها در یک جامعه. یک دیدگاه استاندارد این است که عدالت توزیعی باید به طور منطقی از پشت “حجاب جهل” تصمیم گرفته شود (راولز 1971) ، یعنی ، گویی کسی نمی داند واقعاً در جامعه چه موقعیتی را در اختیار خواهد گرفت (کارگر یا صنعتگر و غیره) . راولز فکر می کرد اصول انتخاب شده از آزادی های اساسی و توزیعی حمایت می کند که بیشترین سود را برای افراد کم بهره جامعه دارد. به نظر می رسد که اقتصاد هوش مصنوعی دارای سه ویژگی است که چنین عدالتی را بعید می داند: اول اینکه در یک فضای عمدتا غیرقانونی تنظیم می شود که تخصیص مسئولیت آن اغلب دشوار است. دوم ، در بازارهایی فعالیت می کند که ویژگی “برنده همه را می برد” که در آن انحصارها به سرعت توسعه می یابند. سوم، “اقتصاد جدید” صنایع خدمات دیجیتال مبتنی بر دارایی های نامشهود است که “سرمایه داری بدون سرمایه” نیز نامیده می شود (هاسکل و وستلیک 2017). این بدان معنی است که کنترل شرکت های دیجیتال چند ملیتی که به یک گیاه فیزیکی در یک مکان خاص اعتماد ندارند دشوار است. به نظر می رسد این سه ویژگی نشان می دهد که اگر توزیع ثروت را به نیروهای بازار آزاد بسپاریم ، نتیجه آن یک توزیع ناعادلانه خواهد بود: و این در واقع تحولی است که می توانیم قبلاً شاهد آن باشیم.

یک سوال جالب که توجه زیادی به آن نشده است این است که آیا توسعه هوش مصنوعی از نظر زیست محیطی پایدار است یا خیر: مانند همه سیستم های محاسباتی ، سیستم های هوش مصنوعی نیز زباله هایی تولید می کنند که بازیافت آنها بسیار دشوار است و آنها به ویژه برای آموزش یادگیری ماشین ، انرژی زیادی را مصرف می کنند. سیستم ها (و حتی برای “استخراج” ارز رمزنگاری شده). مجدداً به نظر می رسد که برخی از بازیگران در این فضا چنین هزینه هایی را برای جامعه عمومی ایجاد می کنند.
2.7 سیستم های خودمختار
چندین مفهوم خودمختاری در بحث سیستم های خودمختار وجود دارد. در بحثهای فلسفی که خودمختاری اساس مسئولیت و شخصیت است ، مفهوم قویتری دخیل است (Christman 2003 [2018]). در این زمینه ، مسئولیت مستلزم خودمختاری است ، اما نه برعکس ، بنابراین می توانند سیستم هایی وجود داشته باشند که دارای درجه ای از خودمختاری فنی هستند بدون اینکه مسئولیت هایی را مطرح کنند. تصور ضعیف ، فنی تر از خودمختاری در رباتیک نسبی و تدریجی است: گفته می شود که یک سیستم نسبت به کنترل انسان تا حدی مستقل است (مولر 2012). در اینجا موازی با موضوعات تعصب و کدورت در هوش مصنوعی وجود دارد ، زیرا استقلال همچنین مربوط به یک رابطه قدرت است: چه کسی کنترل می کند و چه کسی مسئول است؟

به طور کلی ، یک سوال این است که ربات های خودمختار در چه مواردی طرح های مفهومی فعلی ما باید با آنها سازگار شوند یا اینکه فقط به تنظیمات فنی نیاز دارند. در بیشتر حوزه های قضایی ، یک سیستم پیچیده مسئولیت مدنی و کیفری برای حل چنین موضوعاتی وجود دارد. استانداردهای فنی ، به عنوان مثال ، برای استفاده ایمن از ماشین آلات در محیط های پزشکی ، احتمالاً باید تنظیم شوند. در حال حاضر یک زمینه “هوش مصنوعی قابل تأیید” برای چنین سیستم های حیاتی برای ایمنی و “برنامه های امنیتی” وجود دارد. ارگانهایی مانند IEEE (انستیتوی مهندسین برق و الکترونیک) و BSI (موسسه استاندارد انگلیس) “استانداردهایی” را به ویژه در زیرمشکلات فنی بیشتر مانند امنیت داده ها و شفافیت تولید کرده اند. در میان بسیاری از سیستم های خودمختار در زمین ، روی آب ، زیر آب ، در هوا یا فضا ،
2.7.1 مثال (الف) وسایل نقلیه خودمختار
وسایل نقلیه خودمختار قول می دهند که خسارات قابل توجهی را که در حال حاضر رانندگی انسان ایجاد می کند کاهش دهند – تقریباً 1 میلیون انسان در سال کشته می شود ، تعداد زیادی زخمی می شود ، محیط زیست آلوده می شود ، زمین با بتن و آسفالت مهر و موم می شود ، شهرهایی پر از ماشین پارک شده و غیره ، به نظر می رسد در مورد چگونگی رفتار وسایل نقلیه خودمختار و چگونگی توزیع مسئولیت و ریسک در سیستم پیچیده ای که وسایل نقلیه در آن کار می کنند س questionsالاتی وجود دارد. (همچنین اختلاف نظر قابل توجهی در مورد مدت زمان توسعه کاملا مستقل یا “سطح 5”) وجود دارد. اتومبیل ها (SAE International 2018) واقعاً استفاده خواهند کرد.)

در این زمینه بحث درباره “مشکلات واگن برقی” وجود دارد. در “مشکلات واگن برقی” کلاسیک (تامسون 1976 ؛ وولارد و هوارد-اسنایدر 2016: بخش 2) معضلات مختلف ارائه شده است. ساده ترین نسخه آن قطار واگن برقی در مسیری است که به سمت پنج نفر در حرکت است و آنها را می کشد ، مگر اینکه قطار به یک مسیر فرعی هدایت شود ، اما در آن مسیر یک نفر وجود دارد که اگر قطار برود کشته خواهد شد آن مسیر جانبی. مثال به یک تذکر در (Foot 1967: 6) برمی گردد ، که در مورد موارد معضلی بحث می کند که در آن عواقب تحمل شده و اهداف مورد نظر متفاوت است. قرار نیست “مشکلات واگن برقی” مشکلات اخلاقی واقعی را توصیف کند یا با انتخاب “درست” حل شود. نسبتا، اینها آزمایش های فکری هستند که در آن انتخاب به طور مصنوعی محدود به تعداد محدودی از گزینه های مجزا و یکجا است و نماینده از دانش کامل برخوردار است. این مشکلات به عنوان ابزاری نظری برای بررسی شهودها و نظریه های اخلاقی مورد استفاده قرار می گیرند – به ویژه تفاوت بین انجام فعالانه در مقابل اجازه دادن به اتفاقی ، نتایج در نظر گرفته شده در مقابل تحمل شده و نتیجه گرایی در مقابل سایر رویکردهای هنجاری (کم 2016). این نوع مشکلات بسیاری از مشکلاتی را که در رانندگی واقعی و در رانندگی خودکار وجود دارد یادآوری کرده است (Lin 2016). با این حال ، جای تردید است که یک راننده واقعی یا اتومبیل مستقل هرگز مجبور به حل مشکلات واگن برقی باشد (اما کینگ 2020 را ببینید) در حالی که مشکلات واگن برقی اتومبیل بسیار مورد توجه رسانه ها قرار گرفته است (عواد و همکاران 2018) ،

مشکلات اخلاقی رایج در رانندگی ، مانند سرعت غیر مجاز ، سبقت غیرمجاز ، عدم رعایت فاصله ایمن و غیره از مشکلات کلاسیک پیگیری منافع شخصی در مقابل منافع عمومی است. اکثر قریب به اتفاق اینها تحت مقررات قانونی رانندگی قرار دارند. برنامه ریزی ماشین برای رانندگی “با توجه به قوانین” به جای “با توجه به علاقه مسافران” یا “برای دستیابی به حداکثر سودمندی” بنابراین به یک معضل استاندارد برنامه ریزی ماشین های اخلاقی تبدیل می شود ( بخش 2.9 را ببینید ). احتمالاً قوانین اختیاری ادب و سوالات جالب توجهی در مورد زمان شکستن قوانین وجود دارد (Lin 2016) ، اما به نظر می رسد که این بیشتر مورد استفاده از ملاحظات استاندارد (قوانین در مقابل ابزار) در مورد وسایل نقلیه خودمختار است.

گزارش های قابل توجه سیاست در این زمینه شامل این گزارش (وزارت حمل و نقل و زیرساخت های دیجیتال فدرال آلمان 2017) است که تأکید می کند که ایمنی هدف اصلی است. قانون 10 می گوید

در مورد سیستم های رانندگی خودکار و متصل ، مسئولیت پذیری که قبلاً تنها حافظه شخصی بود ، از راننده به تولیدکنندگان و مجریان سیستم های فن آوری و ارگان هایی که مسئول تصمیم گیری های زیرساختی ، سیاستی و قانونی هستند ، تغییر می کند.

بخش 2.10.1 زیر را ببینید). قوانین آلمان و اتحادیه اروپا در مورد صدور مجوز برای رانندگی خودکار بسیار محدودتر از همتایان آمریکایی آنها است که “آزمایش بر روی مصرف کنندگان” یک استراتژی است که توسط برخی شرکت ها استفاده می شود – بدون رضایت آگاهانه از مصرف کنندگان یا قربانیان احتمالی آنها.
2.7.2 مثال (ب) سلاح های خودمختار
مفهوم سلاح های خودکار نسبتاً قدیمی است:

به عنوان مثال ، ما می توانیم به جای اینکه موشکهای هدایت شونده ساده یا وسایل نقلیه خلبانی از راه دور را به زمین بفرستیم ، وسایل نقلیه کاملاً خودمختار زمینی ، دریایی و هوایی را قادر به انجام مأموریتهای شناسایی و حمله پیچیده ، دوربرد پرتاب کنیم. (دارپا 1983: 1)

این پیشنهاد در آن زمان به عنوان “فانتزی” مورد تمسخر قرار گرفت (دریفوس ، دریفوس و آتاناسیو 1986: ix) ، اما اکنون حداقل برای اهداف قابل شناسایی آسان تر (موشک ها ، هواپیماها ، کشتی ها ، تانک ها و غیره) یک واقعیت است ، اما نه برای مبارزان انسانی. استدلالهای اصلی علیه سیستمهای تسلیحات مستقل (کشنده) (AWS یا LAWS) این است که آنها از قتلهای غیرقانونی حمایت می کنند ، مسئولیت را از انسان می گیرند و جنگها یا قتلها را بیشتر محتمل می کنند – برای لیست دقیق مسائل به لینک ، بیکی و ابنی مراجعه کنید. (2008: 73–86).

به نظر می رسد پایین آوردن مانع برای استفاده از چنین سیستم هایی (وسایل نقلیه خودمختار ، موشک های “شلیک و فراموش کردن” یا هواپیماهای بدون سرنشین پر از مواد منفجره) و کاهش احتمال پاسخگویی احتمال استفاده از آنها را افزایش می دهد. عدم تقارن اساسی که در آن یک طرف می تواند بدون مجازات بکشد و بنابراین چند دلیل برای انجام ندادن آن وجود دارد ، در حال حاضر در جنگ های هواپیماهای بدون سرنشین معمولی با سلاح های کنترل از راه دور (به عنوان مثال ، ایالات متحده در پاکستان) وجود دارد. آسان است تصور کنید که یک هواپیمای بدون سرنشین کوچک به جستجو ، شناسایی و از بین بردن یک فرد – یا شاید نوعی از انسان – بپردازد. این موارد مواردی است که توسط کمپین جلوگیری از ربات های قاتل ارائه شده استو سایر گروههای فعال. به نظر می رسد برخی معادل این است که بگوییم سلاح های خودمختار در واقع سلاح هستند … و سلاح ها را می کشد ، اما ما هنوز آنها را به تعداد عظیم تولید می کنیم. در مورد مسئولیت ، سلاح های خودمختار ممکن است شناسایی و پیگرد قانونی ماموران مسئول را دشوارتر کند – اما این با توجه به سوابق دیجیتالی که حداقل می توان در یک جنگ متعارف نگهداری کرد ، مشخص نیست. دشواری تخصیص مجازات گاهی اوقات “شکاف قصاص” خوانده می شود (داناهر 2016a).

س Anotherال دیگر این است که آیا استفاده از سلاح های خودمختار در جنگ باعث وخیم تر شدن جنگ ها می شود ، یا جنگها را کمتر بدتر می کند. اگر روبات ها جنایات جنگی و جنایات در جنگ را کاهش دهند ، ممکن است پاسخ مثبت باشد و به عنوان استدلالی به نفع این سلاح ها مورد استفاده قرار گرفته است (Arkin 2009؛ Müller 2016a) و همچنین به عنوان استدلالی علیه آنها (Amoroso and Tamburrini 2018). مسلماً تهدید اصلی استفاده از چنین سلاح هایی در جنگ های متعارف نیست ، بلکه در درگیری های نامتقارن یا توسط عوامل غیر دولتی از جمله مجرمان است.

همچنین گفته شده است که سلاح های خودمختار نمی توانند با حقوق بشردوستانه بین المللی مطابقت داشته باشند ، که مستلزم رعایت اصول تمایز (بین مبارزان و غیرنظامیان) ، تناسب (نیرو) و ضرورت نظامی (زور) در درگیری های نظامی است (A. Sharkey 2019) درست است که تمایز بین رزمندگان و غیر رزمندگان سخت است ، اما تمایز بین کشتی های غیرنظامی و نظامی آسان است – بنابراین همه اینها می گویند که اگر چنین سلاح هایی مغایر با قوانین بشردوستانه است ، نباید ساخت و استفاده کنیم. نگرانی های دیگری نیز مطرح شده است كه كشته شدن توسط سلاح خودكار كرامت انسان را تهدید می كند ، اما به نظر می رسد حتی مدافعان ممنوعیت استفاده از این سلاح ها استدلال های خوبی نیستند:

سلاح های دیگر و سایر فن آوری ها نیز وجود دارند که کرامت انسانی را به خطر می اندازند. با توجه به این ، و ابهامات ذاتی این مفهوم ، عقلانی تر است که در استدلال های علیه AWS به انواع مختلفی از اعتراضات استناد کنیم ، و تنها به کرامت انسانی متکی نباشیم. (A. Sharkey 2019)

موارد زیادی در مورد نگه داشتن انسانها “در حلقه” یا “در حلقه” در راهنماییهای نظامی در مورد سلاحها ساخته شده است – این روشهای تشریح “کنترل معنی دار” در (Santoni de Sio و van den Hoven 2018) بحث شده است. بحثهایی در مورد دشواریهای تخصیص مسئولیت قتلهای یک سلاح خودمختار وجود داشته است و “شکاف مسئولیت” مطرح شده است (اسپ. راب اسپارو 2007) ، به این معنی که نه انسان و نه ماشین مسئولیتی ندارند. از طرف دیگر ، ما تصور نمی کنیم که برای هر رویدادی فردی مسئول آن رویداد باشد و مسئله اصلی ممکن است توزیع ریسک باشد (سیمپسون و مولر 2016). تجزیه و تحلیل ریسک (هانسون 2013) نشان می دهد تشخیص اینکه چه کسی در معرض خطر قرار دارد ، چه یک سودآور بالقوه است بسیار مهم است ، و چه کسی تصمیم می گیرد (هانسون 2018: 1822–1824).
2.8 اخلاق ماشین
اخلاق ماشینی اخلاق برای ماشین ها ، برای “ماشین های اخلاقی” ، برای ماشین ها به عنوان سوژه است ، نه استفاده انسان از ماشین ها به عنوان اشیا. اغلب مشخص نیست که آیا این باید تمام اخلاق هوش مصنوعی را پوشش دهد یا بخشی از آن باشد (فلوریدی و ساندرز 2004 ؛ مور 2006 ؛ اندرسون و اندرسون 2011 ؛ والاچ و آسارو 2017). گاهی اوقات به نظر می رسد که در اینجا استنباط (مشکوکی) وجود دارد که اگر ماشین آلات از لحاظ اخلاقی عمل می کنند ، پس ما به یک اخلاق ماشین احتیاج داریم. بر این اساس ، برخی از مفهوم وسیع تری استفاده می کنند:

اخلاق ماشین کاری این است که رفتار ماشین ها نسبت به کاربران انسانی و شاید ماشین های دیگر نیز از نظر اخلاقی قابل قبول باشد. (اندرسون و اندرسون 2007: 15)

این ممکن است فقط شامل موارد ایمنی محصول باشد ، به عنوان مثال. نویسندگان دیگر بلند پروازانه به نظر می رسند اما از مفهوم محدودتری استفاده می کنند:

استدلال هوش مصنوعی باید بتواند ارزشهای اجتماعی ، ملاحظات اخلاقی و اخلاقی را در نظر بگیرد. اولویت های مربوطه را که ذینفعان مختلف در زمینه های مختلف چند فرهنگی نگهداری می کنند ، بسنجید. استدلال آن را توضیح دهید و شفافیت را تضمین می کنند. (Dignum 2018: 1 ، 2)

برخی از مباحث اخلاق ماشینی این فرضیه اساسی را ایجاد می کند که ماشین ها می توانند به نوعی عوامل اخلاقی مسئول اعمال خود یا “عوامل اخلاقی خودمختار” باشند (به ون وینزبرگ و رابینز 2019 مراجعه کنید). ایده اساسی اخلاق ماشینی اکنون یافتن راهی برای رباتیک واقعی است که در آنجا معمولاً تصور نمی شود که این ماشینها از نظر معنای اساسی عوامل اخلاقی مصنوعی هستند (وینفیلد و همکاران 2019). بعضی اوقات مشاهده می شود که روباتی که برای پیروی از قوانین اخلاقی برنامه ریزی شده است می تواند خیلی راحت اصلاح شود تا از قوانین غیراخلاقی پیروی کند (Vanderelst and Winfield 2018).

این ایده که اخلاق ماشینی ممکن است به شکل “قوانین” باشد ، توسط آیزاک آسیموف ، که “سه قانون رباتیک” را پیشنهاد کرده است ، مورد بررسی قرار گرفته است (آسیموف 1942):

قانون اول – یک روبات ممکن است به انسانی آسیب نرساند یا از طریق بی عملی اجازه آسیب رساندن به انسان را بدهد. قانون دوم – یک روبات باید از دستوراتی که انسان به او می دهد تبعیت کند مگر در مواردی که این دستورات با قانون اول مغایرت داشته باشد. قانون سوم – یک روبات باید از موجودیت خودش محافظت کند به شرطی که این حمایت با قوانین اول یا دوم در تضاد نباشد.

آسیموف سپس در تعدادی از داستان ها نشان داد که چگونه تعارضات بین این سه قانون استفاده از آنها را علی رغم سازمان سلسله مراتبی مشکل ساز می کند.

روشن نیست که یک مفهوم سازگار از “اخلاق ماشینی” وجود دارد ، زیرا نسخه های ضعیف تر در معرض خطر “داشتن یک اخلاق” به مفاهیمی هستند که معمولاً کافی تلقی نمی شوند (به عنوان مثال ، بدون “تأمل” یا حتی بدون “عمل”) ) تصورات قویتر که به سمت عوامل اخلاقی مصنوعی حرکت می کنند ممکن است مجموعه ای را که در حال حاضر خالی است توصیف کنند.
2.9 عوامل اخلاقی مصنوعی
اگر کسی اخلاق ماشینی را به معنای اساسی از نظر عوامل اخلاقی در نظر بگیرد ، می توان این عوامل را “دارای عوامل اخلاقی مصنوعی” خواند ، دارای حقوق و مسئولیت هایی. با این حال ، بحث در مورد موجودات مصنوعی تعدادی از مفاهیم رایج در اخلاق را به چالش می کشد و درک آنها در انتزاع از پرونده انسان می تواند بسیار مفید باشد (رجوع کنید به Misselhorn 2020 ؛ Powers and Ganascia آینده)

چندین نویسنده از “عامل اخلاقی مصنوعی” به معنای کمتر طلبکارانه استفاده می کنند و از استفاده از “عامل” در مهندسی نرم افزار استقراض می کنند که در این صورت مسائل مربوط به مسئولیت و حقوق بوجود نخواهد آمد (آلن ، وارنر و زینزر 2000). جیمز مور (2006) چهار نوع عامل ماشین را از یکدیگر متمایز می کند: عوامل تأثیر اخلاقی (به عنوان مثال ، ربات های اسباب بازی) ، عوامل اخلاقی ضمنی (به عنوان مثال ، خلبان اتوماتیک ایمن) ، عوامل اخلاقی صریح (به عنوان مثال ، استفاده از روش های رسمی برای برآورد سودمندی) و عوامل اخلاقی کامل (که “می تواند قضاوتهای صریح اخلاقی انجام دهد و بطور کلی صلاحیت توجیه منطقی آنها را دارد. یک انسان بالغ متوسط ​​یک عامل اخلاقی کامل است.)) چندین روش برای دستیابی به عوامل اخلاقی” صریح “یا” کامل “ارائه شده است ، از طریق برنامه ریزی در (اخلاق عملیاتی) ، از طریق “توسعه” خود اخلاق (اخلاق عملکردی) ، و سرانجام اخلاقی تمام عیار با هوش و شعور کامل (آلن ، اسمیت و والاچ 2005 ؛ مور 2006). عوامل برنامه ریزی شده گاهی اوقات “کامل” در نظر گرفته نمی شوند زیرا “بدون درک و فهم” درست مانند نورونهای مغز “صلاحیت دارند” (دنت 2017 ؛ هاکلی و مکلä 2019).

در برخی بحث ها ، مفهوم “بیمار اخلاقی” نقش دارد: عوامل اخلاقی مسئولیت هایی دارند در حالی که بیماران اخلاقی دارای حقوقی هستند زیرا آسیب رساندن به آنها مهم است. به نظر واضح است که برخی موجودات بیمار هستند بدون اینکه عامل باشند ، مثلاً حیواناتی ساده که می توانند احساس درد کنند اما نمی توانند انتخاب موجهی داشته باشند. از طرف دیگر ، به طور معمول درک می شود که همه عوامل نیز بیمار خواهند بود (به عنوان مثال ، در چارچوب کانتی). معمولاً تصور می شود که یک شخص بودن است که یک نهاد را به یک نماینده مسئول تبدیل می کند ، شخصی که می تواند وظایفی داشته باشد و مورد نگرانی های اخلاقی قرار گیرد. چنین شخصیتی به طور معمول یک مفهوم عمیق است که با آگاهی ، قصد و اراده آزاد همراه است (فرانکفورت 1971 ؛ استراوسون 1998). تورانس (2011) پیشنهاد می کند “اخلاق مصنوعی (یا ماشینی) را می توان به عنوان طراحی ماشین آلاتی تعریف کرد که کارهایی را انجام می دهند که اگر توسط انسان انجام شود ، نشان دهنده داشتن” وضعیت اخلاقی “در آن انسان ها است” (2011: 116) – که او “اخلاقیبهره وری و پذیرش اخلاقی “(2011: 117) – این عبارات برای عوامل اخلاقی و بیماران است.
2.9.1 مسئولیت در برابر ربات ها
اتفاق نظر گسترده ای وجود دارد که پاسخگویی ، مسئولیت و حاکمیت قانون از الزامات اساسی است که باید در برابر فن آوری های جدید مورد تأیید قرار گیرد (گروه اخلاقی اروپا در علوم و فن آوری های جدید 2018 ، 18) ، اما مسئله در مورد ربات ها نحوه انجام این کار و نحوه تخصیص مسئولیت است. در صورت اقدام روبات ها ، آیا آنها خود مسئول ، مسئول یا پاسخگوی اعمال خود خواهند بود؟ یا شاید توزیع ریسک باید بر بحث مسئولیت اولویت داشته باشد؟

توزیع سنتی مسئولیت قبلاً اتفاق افتاده است: یک سازنده اتومبیل مسئول ایمنی فنی خودرو است ، یک راننده مسئول رانندگی ، یک مکانیک مسئول نگهداری مناسب ، مقامات عمومی مسئول شرایط فنی جاده ها و غیره هستند. به طور کلی

اثرات تصمیمات یا اقدامات مبتنی بر هوش مصنوعی اغلب نتیجه تعاملات بی شماری بین بسیاری از بازیگران ، از جمله طراحان ، توسعه دهندگان ، کاربران ، نرم افزارها و سخت افزارها است.… مسئولیت توزیع شده توسط نمایندگی توزیع شده به وجود می آید. (Taddeo and Floridi 2018: 751).

چگونگی وقوع این توزیع مشکلی نیست که مخصوص AI باشد ، اما در این زمینه فوریت خاصی پیدا می کند (Nyholm 2018a، 2018b). در مهندسی کنترل کلاسیک ، کنترل توزیع شده اغلب از طریق سلسله مراتب کنترل به علاوه حلقه های کنترل در این سلسله مراتب حاصل می شود.
2.9.2 حقوق برای ربات ها
برخی از نویسندگان اظهار داشتند که باید به طور جدی بررسی شود که آیا باید به ربات های فعلی حق تعلق گیرد (Gunkel 2018a، 2018b؛ Danaher آینده؛ Turner 2019). به نظر می رسد این موضع عمدتاً به انتقاد از مخالفان و مشاهده تجربی متکی است که بعضی اوقات به عنوان داشتن حق با ربات ها و سایر افراد غیر شخص برخورد می شود. در این راستا ، یک “چرخش رابطه ای” پیشنهاد شده است: اگر ما به ربات ها ربطی داشته باشیم انگار که آنها دارای حقوقی هستند ، پس ممکن است به ما توصیه شود که جستجو نکنیم که آیا “واقعاً” از چنین حقوقی برخوردار هستند (Coeckelbergh 2010، 2012، 2018 ) این س theال را به وجود می آورد که چنین ضد رئالیسم یا شبه رئالیسم تا کجا می تواند پیش رود و معنی این است که در این صورت گفته می شود “روبات ها از حق برخوردار هستند” در یک رویکرد انسان محور (Gerdes 2016). در طرف دیگر بحث ، برایسون اصرار داشت که ربات ها نباید از حق برخوردار شوند (برایسون 2010) ،

یک مسئله کاملاً جداگانه وجود دارد که آیا باید به روبات ها (یا سایر سیستم های هوش مصنوعی) وضعیت “اشخاص حقوقی” یا “اشخاص حقوقی” به معنای واقعی اشخاص حقیقی داده شود ، اما همچنین ایالت ها ، مشاغل یا سازمان ها “اشخاص حقوقی” هستند ، یعنی آنها می تواند حقوق و تکالیف قانونی داشته باشد. پارلمان اروپا اختصاص چنین وضعیتی به روبات ها را برای مقابله با مسئولیت مدنی (اتحادیه اروپا 2016 ، Bertolini و Aiello 2018) در نظر گرفته است ، اما مسئولیت کیفری را ندارد – که مختص اشخاص حقیقی است. همچنین اختصاص زیرمجموعه خاصی از حقوق و وظایف به روبات ها نیز امکان پذیر خواهد بود. گفته شده است که “چنین اقدامی از نظر اخلاقی از نظر اخلاقی غیرضروری و از نظر قانونی دردسر ساز خواهد بود” زیرا به نفع انسانها نخواهد بود (برایسون ، دیامانتیس و گرانت 2017: 273).

همچنین گفته شده است که دلایل توسعه روبات های دارای حقوق یا بیماران اخلاقی مصنوعی در آینده از نظر اخلاقی مشکوک است (ون وینسببرگ و رابینز 2019). در جامعه محققان “آگاهی مصنوعی” این نگرانی قابل توجه وجود دارد که آیا ایجاد چنین آگاهی اخلاقی خواهد بود زیرا ایجاد آن احتمالاً متضمن تعهدات اخلاقی نسبت به موجودی ذی شعور است ، به عنوان مثال آسیب نرساندن به آن و پایان دادن به وجود آن با تغییر دادن خاموش است – برخی از نویسندگان خواستار “توقف در پدیدارشناسی مصنوعی” شده اند (بنتلی و دیگران. 2018: 28f).
2.10 تکینگی
2.10.1 تکینگی و فوق العاده هوشمندی
در بعضی از محله ها ، هدف هوش مصنوعی فعلی “هوش عمومی مصنوعی” (AGI) تصور می شود ، در تضاد با هوش مصنوعی فنی یا “باریک”. AGI معمولاً از مفاهیم سنتی AI به عنوان یک سیستم هدف کلی و از مفهوم Searle در مورد “AI قوی” متمایز می شود:

به معنای واقعی کلمه می توان گفت که کامپیوترهایی که برنامه های درستی دارند ، حالت های شناختی دیگری را درک می کنند و دارند. (سرل 1980: 417)

ایده تکینگی این است که اگر خط سیر هوش مصنوعی به سیستمهایی برسد که دارای سطح هوشی انسانی باشند ، این سیستمها خود توانایی تولید سیستمهای هوش مصنوعی را دارند که از سطح هوش انسان فراتر می روند ، یعنی “فوق هوشمند” هستند. ”(زیر را ببینید). چنین سیستم های هوش مصنوعی فوق العاده هوشمند به سرعت خود را بهبود می بخشند یا حتی سیستم های هوشمندتری را توسعه می دهند. این چرخش شدید رویدادها پس از رسیدن به هوش مصنوعی فوق العاده هوشمند “منحصر به فرد” است که توسعه AI از آن خارج از کنترل انسان است و پیش بینی آن دشوار است (Kurzweil 2005: 487).

ترس از اینکه “ربات هایی که ما ایجاد کردیم ، جهان را تسخیر خواهند کرد” حتی قبل از وجود رایانه (مثلاً باتلر 1863) تصورات انسان را تسخیر کرده بود و این موضوع اصلی در نمایش معروف Čapek است که کلمه “روبات” را معرفی می کند (Čapek 1920). این ترس ابتدا توسط ایروین گود به عنوان سیر احتمالی هوش مصنوعی موجود در “انفجار اطلاعاتی” فرموله شد:

بگذارید یک ماشین فوق العاده هوشمند به عنوان ماشینی تعریف شود که بتواند به مراتب از همه فعالیتهای فکری هر انسانی هرچند باهوش پیشی بگیرد. از آنجا که طراحی ماشین آلات یکی از این فعالیتهای فکری است ، یک ماشین فوق العاده هوشمند می تواند ماشین های حتی بهتری را نیز طراحی کند. بدون شک “انفجار اطلاعاتی” رخ خواهد داد ، و هوش انسان بسیار عقب خواهد ماند. بنابراین اولین ماشین فوق العاده هوشمند آخرین اختراعی است که انسان هرگز باید انجام دهد ، به شرطی که دستگاه به اندازه کافی مطیع باشد و به ما بگوید چگونه می توان آن را تحت کنترل درآورد. (خوب 1965: 33)

استدلال خوش بینانه از شتاب به تکینگی توسط Kurzweil (1999 ، 2005 ، 2012) بیان می شود که اساساً اشاره می کند که قدرت محاسبات به طور تصاعدی افزایش یافته است ، یعنی تقریباً دو برابر می شود. از سال 1970 هر 2 سال مطابق با “قانون مور” در مورد تعداد ترانزیستورها ، و برای مدتی در آینده ادامه خواهد داشت. وی در (Kurzweil 1999) پیش بینی کرد که تا سال 2010 ابر رایانه ها به ظرفیت محاسبات انسانی خواهند رسید ، تا سال 2030 “بارگذاری ذهن” امکان پذیر است و تا سال 2045 “تکینگی” رخ خواهد داد. Kurzweil در مورد افزایش قدرت محاسباتی که می تواند با هزینه مشخص خریداری شود صحبت می کند – اما البته در سال های اخیر بودجه موجود برای شرکت های هوش مصنوعی نیز بسیار زیاد شده است:

نسخه رایج این استدلال (Chalmers 2010) در مورد افزایش “هوش” سیستم هوش مصنوعی (به جای قدرت محاسبه خام) صحبت می کند ، اما نکته مهم “تکینگی” همان موضوعی است که در آن توسعه بیشتر هوش مصنوعی توسط سیستم های AI و فراتر از سطح انسان شتاب می گیرد. Bostrom (2014) با جزئیات توضیح می دهد که در آن مرحله چه اتفاقی می افتد و خطرات آن برای بشر چیست. بحث در Eden و همکاران خلاصه شده است. (2012) ؛ آرمسترانگ (2014) ؛ شاناهان (2015). غیر از افزایش توان محاسباتی ، مسیرهای دیگری برای سوپر هوش وجود دارد ، به عنوان مثال ، تقلید کامل از مغز انسان در رایانه (Kurzweil 2012؛ Sandberg 2013) ، مسیرهای بیولوژیکی یا شبکه ها و سازمان ها (Bostrom 2014: 22-51).

علی رغم ضعفهای آشکار در شناسایی “هوش” با قدرت پردازش ، Kurzweil درست به نظر می رسد که انسانها تمایل دارند قدرت رشد نمایی را دست کم بگیرند. آزمون کوتاه: اگر در پله ها طوری قدم بردارید که هر پله دو برابر مرحله قبلی باشد ، با یک پله یک متر شروع کنید ، با 30 قدم تا کجا می رسید؟ (پاسخ: به تنها ماهواره طبیعی دائمی زمین.) در واقع ، بیشترین پیشرفت در هوش مصنوعی به راحتی به دلیل در دسترس بودن پردازنده هایی است که از نظر درجه ، سرعت ذخیره سازی بیشتر و سرمایه گذاری بالاتر سریع تر هستند (مولر 2018). شتاب واقعی و سرعت آن در (مولر و بوستروم 2016 ؛ بوستروم ، دافو و فلین آینده) بحث شده است. Sandberg (2019) معتقد است که پیشرفت برای مدتی ادامه خواهد داشت.

شرکت کنندگان در این بحث با تکنیک بودن متحد می شوند به این معنا که انتظار دارند فناوری به سرعت توسعه یابد و تغییرات کاملاً استقبال آمیز ایجاد کند – اما فراتر از آن ، آنها به کسانی که بر مزایا (مثلا Kurzweil) تمرکز می کنند و کسانی که روی خطرات تمرکز دارند تقسیم می شوند ( بوستروم). هر دو اردوگاه با دیدگاههای “فراانسانی” بقا برای بشریت به شکل فیزیکی متفاوتی ، مثلاً بارگذاری شده در رایانه ، همدردی می کنند (موراوک 1990 ، 1998 ؛ بوستروم 2003 الف ، 2003 ج). آنها همچنین چشم اندازهای “ارتقا human انسان” را از جنبه های مختلف ، از جمله هوش – که اغلب “IA” (تقویت هوش) نامیده می شود ، در نظر می گیرند. ممکن است این هوش مصنوعی در آینده برای تقویت انسان مورد استفاده قرار گیرد یا به انحلال فرد مجرد انسانی که به طور منظمی تعریف شده کمک بیشتری کند.

استدلال از ابر هوشمندی به خطر ، مستلزم این فرض است که ابر هوشمندی به معنای خیرخواهی نیست – برخلاف سنت های کانتی در اخلاقیات که استدلال کرده اند سطح بالاتری از عقلانیت یا هوش با درک بهتر آنچه اخلاقی است و توانایی بهتر برای عمل اخلاقی همراه است (Gewirth 1978 ؛ چالمرز 2010: 36 f). استدلال های مربوط به ریسک پذیری از ابر هوشمندی می گویند که عقلانیت و اخلاق کاملاً ابعادی مستقل هستند – این بعضاً صریحاً به عنوان “تز متعامد بودن” مطرح می شود (Bostrom 2012؛ Armstrong 2013؛ Bostrom 2014: 105-109).

انتقاد از روایت تکینگی از زوایای مختلف مطرح شده است. به نظر می رسد Kurzweil و Bostrom تصور می كنند كه هوش امری یك بعدی است و مجموعه عوامل هوشمند از لحاظ ریاضی كاملاً مرتب شده اند – اما هیچ كدام از آنها در كتابهایشان به طور كامل در مورد هوش بحث نمی كنند. به طور کلی ، منصفانه است که بگوییم علی رغم برخی تلاش ها ، مفروضات ارائه شده در روایت قدرتمند ابر هوش و تکینگی به طور دقیق بررسی نشده است. یک سوال این است که آیا چنین انفرادی هرگز رخ خواهد داد – ممکن است به لحاظ وقایع احتمالی ، از جمله افرادی که به طور فعال از آن جلوگیری می کنند ، از نظر مفهومی غیرممکن ، عملاً غیرممکن باشد یا ممکن است اتفاق نیفتد. از نظر فلسفی ، سوال جالب این است که آیا تکینگی فقط یک “افسانه” است (فلوریدی 2016 ؛ گاناسکیا 2017) ، و در مسیر تحقیقات واقعی AI نیست. این چیزی است که پزشکان معمولاً تصور می کنند (به عنوان مثال ، بروکس 2017 [OIR]). آنها ممکن است این کار را انجام دهند زیرا از واکنش های عمومی روابط ترس دارند ، زیرا مشکلات عملی را بیش از حد ارزیابی می کنند ، یا دلیل خوبی دارند که فکر می کنند فوق هوشمندی نتیجه نامحتمل تحقیقات فعلی هوش مصنوعی است (مولر در آینده ارائه می شود). این بحث این س raال را به وجود می آورد که آیا نگرانی در مورد “تکینگی” فقط روایتی در مورد هوش مصنوعی ساختگی است که بر اساس ترس انسان ساخته شده است؟ اما حتی اگر یکی باشد این بحث این س raال را به وجود می آورد که آیا نگرانی در مورد “تکینگی” فقط روایتی در مورد هوش مصنوعی ساختگی است که بر اساس ترس انسان ساخته شده است؟ اما حتی اگر یکی باشد این بحث این س raال را به وجود می آورد که آیا نگرانی در مورد “تکینگی” فقط روایتی در مورد هوش مصنوعی ساختگی است که بر اساس ترس انسان ساخته شده است؟ اما حتی اگر یکی باشد دلایل منفی را قانع کننده می داند و احتمال دارد تکینگی رخ ندهد ، اما هنوز هم یک احتمال قابل توجه وجود دارد که اشتباه باشد. فلسفه در “مسیر امن یک علم” نیست (کانت 1791: B15) ، و شاید هوش مصنوعی و رباتیک هم نباشند (مولر 2020). بنابراین ، به نظر می رسد بحث در مورد ریسک تأثیر بسیار زیاد تکینگی توجیه دارد حتی اگر کسی فکر کند که احتمال وقوع چنین تکینگی بسیار کم است.
2.10.2 ریسک وجودی ناشی از ابر هوش
تفکر در مورد ابر هوشمندی در طولانی مدت این س questionال را به وجود می آورد که آیا ابر هوشمندی ممکن است به انقراض گونه انسانی منجر شود ، که به آن “خطر وجودی” (یا XRisk) گفته می شود: سیستم های فوق هوشمند ممکن است ترجیحاتی داشته باشند که با وجود انسان در تعارض باشد زمین ، و بنابراین ممکن است تصمیم بگیرد که به این وجود خاتمه دهد – و با توجه به هوش برتر خود ، آنها قدرت چنین کاری را خواهند داشت (یا ممکن است اتفاق بیفتد که به آن پایان دهند زیرا واقعاً اهمیتی برای آنها ندارند).

تفکر در دراز مدت ویژگی اساسی این ادبیات است. اینکه آیا تکینگی (یا یک واقعه فاجعه بار دیگر) در 30 یا 300 یا 3000 سال رخ دهد ، واقعاً اهمیتی ندارد (Baum et al. 2019). شاید حتی یک الگوی نجومی وجود داشته باشد که یک گونه هوشمند در بعضی مواقع مجبور به کشف هوش مصنوعی شود و در نتیجه نابودی خود را به وجود آورد. چنین “فیلتر بزرگی” می تواند به توضیح “پارادوکس فرمی” کمک کند که چرا علیرغم احتمال زیاد ظهور ، هیچ نشانه ای از حیات در جهان شناخته شده وجود ندارد. اگر بفهمیم که “فیلتر بزرگ” به جای مانعی که زمین قبلاً از آن عبور کرده است ، خبر بدی خواهد بود. این موضوعات گاهی اوقات با دقت بیشتری در مورد انقراض انسان گرفته می شود (Bostrom 2013) ، یا به طور گسترده تر در مورد هر گونه خطر بزرگ برای گونه ها (Rees 2018) – که AI تنها یکی از آنهاست (Häggström 2016؛ Ord 2020). بوستروم همچنین از رده “خطر فاجعه بار جهانی” برای ریسکهایی که به اندازه کافی از دو بعد “دامنه” و “شدت” بالا هستند استفاده می کند (Bostrom and Ćirković 2011؛ ​​Bostrom 2013).

این مباحث مربوط به ریسک معمولاً با مشکل کلی اخلاقیات در معرض خطر مرتبط نیستند (به عنوان مثال ، هانسون 2013 ، 2018). این دیدگاه طولانی مدت چالش های روش شناختی خاص خود را دارد اما بحث گسترده ای را ایجاد کرده است: (Tegmark 2017) بر هوش مصنوعی و زندگی انسان “3.0” پس از تکینگی متمرکز است در حالی که راسل ، دیویی و تگمارک (2015) و بوستروم ، دافو و فلین ( آینده) بررسی سیاست های بلند مدت در هوش مصنوعی اخلاقی. چندین مجموعه از مقاله ها خطرات هوش عمومی مصنوعی (AGI) و عواملی را که باعث می شود این پیشرفت کم و بیش پر خطر شود (مولر 2016 ب ؛ کالاگان و همکاران 2017 ؛ یامپولسکی 2018) بررسی کرده اند ، از جمله توسعه غیر عامل هوش مصنوعی (درکسلر 2019).
2.10.3 کنترل فوق العاده هوش؟
به تعبیری محدود ، “مشکل کنترل” این است که چگونه ما انسانها می توانیم یک سیستم هوش مصنوعی را فوقالعاده کنترل کنیم (Bostrom 2014: 127ff). به معنای وسیع تر ، این مسئله این است که چگونه می توانیم اطمینان حاصل کنیم که یک سیستم هوش مصنوعی مطابق تصور انسان مثبت خواهد شد (راسل 2019). گاهی اوقات “هم ترازی ارزش” نامیده می شود. کنترل آسان یا فوق العاده هوشمندی به میزان بسیار آسان بستگی به سرعت پرواز در یک سیستم فوق هوشمند دارد. این امر باعث توجه ویژه به سیستم های دارای خودسازی مانند AlphaZero (Silver و همکاران 2018) شده است.

یکی از جنبه های این مشکل این است که ما ممکن است تصمیم بگیریم که یک ویژگی خاص مطلوب است ، اما سپس دریابید که عواقب پیش بینی نشده ای دارد که آنقدر منفی است که به هر حال تمایل به آن ویژگی نداریم. این مشکل قدیمی پادشاه میداس است که آرزو می کرد تمام آنچه را که لمس می کرد به طلا تبدیل شود. این مسئله به مناسبت مثالهای مختلفی مانند “حداکثر گیره کاغذی” (Bostrom 2003b) یا برنامه بهینه سازی عملکرد شطرنج (Omohundro 2014) مورد بحث قرار گرفته است.

بحث در مورد ابر هوش شامل گمانه زنی در مورد موجودات دانای کل ، تغییرات بنیادی در “یک روز آخر” و وعده جاودانگی از طریق فراتر رفتن از شکل بدنی فعلی ما است – بنابراین گاهی اوقات آنها دارای زیر بناهای مذهبی واضح هستند (Capurro 1993؛ Geraci 2008 ، 2010 ؛ O ‘ کانل 2017: 160 به بعد). این موضوعات همچنین یک مسئله شناخته شده معرفت شناسی را به وجود می آورد: آیا می توانیم راه های همه چیز دان را بشناسیم (Danaher 2015)؟ مخالفان معمول قبلاً نشان داده شده اند: پاسخ مشخصه یک ملحد است

مردم نگران هستند که رایانه ها بیش از حد هوشمند شوند و دنیا را تصاحب کنند ، اما مشکل اصلی این است که آنها بسیار احمق هستند و قبلاً دنیا را تسخیر کرده اند (Domingos 2015)

نیهیلیست های جدید توضیح می دهند که “تکنیک هیپنوتیزم” از طریق فناوری های اطلاعاتی اکنون به روش اصلی ما برای انحراف از دست دادن معنا تبدیل شده است (گرتز 2018). بنابراین هر دو مخالف می گویند ما برای مشکلات “کوچکی” که با هوش مصنوعی واقعی و رباتیک اتفاق می افتد به اصول اخلاقی نیاز داریم ( بخش 2.1 تا 2.9 بالا) ، و نیاز کمتری به “اخلاق بزرگ” از نظر وجودی از AI ( بخش 2.10 )

اجرای پروژه های تخصصی هوش مصنوعی با مشاوره رایگان سلول پیشتاز

منبع : plato.stanford.edu

حسین برخورداری سوال پاسخ داده شده دسامبر 7, 2020
گذاشتن نظر
پاسخ خود را بنویسید .
  • فعال
  • بازدیدها1824 times
  • پاسخ ها1 پاسخ
ورود به متاورس | متاورس ایرانی
ورود به متاورس ایران یا همان متاورس ملی

علامت ذره بین Tutorials سمت راست به رنگ قرمز به شما کمک خواهد کرد .

جدید ترین سوالات پرسیده شده

منقضی شدن سم بتانال 1 پاسخ | 0 آرا
ایا ایدز گزفتم؟ 0 پاسخ ها | 0 آرا
انتخاب ورزش رزمی 0 پاسخ ها | 1 رای
وزارت تعاون کار و رفاه اجتماعی نماد اعتماد الکترونیک اسناد و املاک کشور مرکز آموزش ویدیویی انجمن حم فروشگاه ملی تولید کنندگان مدیریت بر مدیران حم سامانه حیوانات رسانه ملی اخبار متا دانشگاه متاورس استخدام | دانش فروشگاه حم تبلیغات ملی بازار NFT متاورس رنگ نقشه ملی سه بعدی متا املاک و مستغلات