جستجو برای:
سبد خرید 0
  • خانه
  • محصولات
  • ویدئوهای آموزشی رایگان
  • مقالات
  • تماس با ما

ورود

گذرواژه خود را فراموش کرده اید؟

ثبت نام

داده های شخصی شما برای پشتیبانی از تجربه شما در این وب سایت، برای مدیریت دسترسی به حساب کاربری شما و برای اهداف دیگری که در سیاست حفظ حریم خصوصی ما شرح داده می شود مورد استفاده قرار می گیرد.

هوش مصنوعی رضوان
  • خانه
  • محصولات
  • ویدئوهای آموزشی رایگان
  • مقالات
  • تماس با ما
ورود / ثبت نام
0

وبلاگ

هوش مصنوعی رضوان > فایل های آموزشی رایگان > اخلاق خودکار: چالش‌های اخلاقی در اتوماسیون و هوش مصنوعی

اخلاق خودکار: چالش‌های اخلاقی در اتوماسیون و هوش مصنوعی

فایل های آموزشی رایگان، مقالات

فهرست مطالب:

  • 1. چالش‌های اخلاقی خودروهای خودران
  • 2. مسئله ترالی و تصمیم‌گیری اخلاقی
  • 3. آینده هوش مصنوعی و تأثیر آن بر اخلاق عمومی 

در عصر دیجیتال و پیشرفت‌های شگرف فناوری، اتوماسیون و هوش مصنوعی به عنوان دو نیروی محرکه اصلی در تحول زندگی بشر معرفی شده‌اند. اما در این دنیای نوین، سوالات پیچیده و چالش‌برانگیزی در زمینه اخلاق و مسئولیت‌پذیری مطرح می‌شود. آیا می‌توانیم به ماشین‌ها اجازه دهیم که در تصمیم‌گیری‌های حیاتی ما دخالت کنند؟ و در کجا باید خط قرمز را بکشیم تا از عواقب ناخواسته جلوگیری کنیم؟ این مقاله به بررسی این مسائل حیاتی می‌پردازد و تلاش می‌کند تا تعادل میان پیشرفت فناوری و اصول اخلاقی را کشف کند.

فیلسوف فرانسوی پل ویریلیو بر این باور است که توسعه فناوری به طور جدایی‌ناپذیری با مفهوم حادثه گره خورده است. او می‌گوید: “هر حادثه‌ای یک معجزه معکوس است… وقتی کشتی را اختراع می‌کنید، در واقع کشتی‌شکنی را نیز اختراع کرده‌اید؛ وقتی هواپیما را خلق می‌کنید، سقوط هواپیما را نیز به وجود آورده‌اید؛ و وقتی برق را اختراع می‌کنید، برق‌گرفتگی را نیز به همراه دارد.” حوادث نقاط عطفی هستند که نشان می‌دهند پیش‌بینی با واقعیت تلاقی کرده و نتیجه‌ای ناخوشایند به بار آورده است. اما هر حادثه همچنین فرصتی برای آشکارسازی دنیوی و فراتر رفتن از گذشته است: فرصتی برای بهبود وضعیت فردا نسبت به امروز و گاهی اوقات وعده‌ای برای “هرگز دوباره نه”.
این، حداقل، نقشه راه ماست. اما وعده “هرگز دوباره نه” وعده‌ای دشوار برای حفظ است: در درازمدت، سوال این نیست که آیا چیزی اشتباه می‌رود، بلکه این است که چه زمانی این اتفاق خواهد افتاد. به همین دلیل، نگرانی‌های اخلاقی در نوآوری معمولاً بر کاهش و تخفیف آسیب تمرکز دارند، نه بر حذف کامل آن. یک کشتی بخار با بدنه دوگانه، خطر کمتری را به ازای هر مسافر نسبت به یک کشتی تجاری قرون وسطایی به همراه دارد؛ یک کارخانه به خوبی مدیریت شده ایمن‌تر از یک کارگاه استثمارگر است. اگرچه سقوط هواپیماها ممکن است جان بسیاری را بگیرد، اما تدابیری مانند چک‌لیست، کامپیوتر و کمک‌خلبان در برابر تقریباً همه شرایط پیش‌بینی‌نشده، ایمنی ایجاد می‌کنند.
تدابیر مشابه موضوع یکی از داغ‌ترین مباحث در اخلاق عملی امروز است: خودروهای خودران. وسایل نقلیه مدرن ایمن‌تر و قابل‌اعتمادتر از هر زمان دیگری هستند، با این حال، بیش از 1 میلیون نفر در سال در تصادفات جاده‌ای جان خود را از دست می‌دهند و بیش از 50 میلیون نفر مجروح می‌شوند. چرا؟ عمدتاً به این دلیل که یک عنصر خطرناک در مکانیک رانندگی هنوز به کمال نرسیده است: انسان..!
در این راستا، به لبه برش فناوری کاهش آسیب می‌رسیم. در آگوست 2012، گوگل اعلام کرد که در آزمایش خودروهای خودران خود به 300,000 مایل بدون تصادف دست یافته است. این فناوری هنوز فاصله زیادی تا ورود به بازار دارد، اما شواهد آماری برای وسایل نقلیه خودکار بسیار قانع‌کننده است. حتی زمانی که خودروهای کنترل شده توسط انسان باعث آسیب نمی‌شوند، اغلب به طور ناکارآمد، ناشیانه و ضد اجتماعی رانده می‌شوند و به رنج انسانی می‌افزایند.

 

اما در مورد موقعیت‌های محلی چه می‌توان گفت؟ اگر وسیله نقلیه شما با اتوبوسی پر از دانش‌آموزان که ناگهان از جاده عبور می‌کنند، مواجه شود، آیا می‌خواهید در دنیایی زندگی کنید که خودرو به طور خودکار منحرف می‌شود و با سرعتی که هرگز نمی‌توانستید کنترل کنید، آن‌ها را نجات می‌دهد، در حالی که جان شما را به خطر می‌اندازد؟ یا ترجیح می‌دهید در دنیایی زندگی کنید که خودرو منحرف نشود و شما را در امان نگه دارد؟ اگر به این شکل مطرح شود، هیچ‌کدام گزینه جذابی به نظر نمی‌رسد. با این حال، طراحی سیستم‌های خودکفا ایجاب می‌کند که ما به این سوالات پاسخ دهیم. و این پرسش‌ها ما را به یکی از قدیمی‌ترین آزمایش‌های فکری در فلسفه مدرن می‌کشاند: مشکل ترالی.
A Passenger's One-Star Review of the Trolley Ride from the Trolley Problem - McSweeney's Internet Tendency

مسئله ترالی، که در سال 1967 توسط فیلسوف انگلیسی فیلیپا فوت مطرح شد، به بررسی چالش‌های اخلاقی در تصمیم‌گیری می‌پردازد. در این سناریو، راننده یک تراموای بی‌سرپرست به سمت یک خط آهن در حال حرکت است. پنج مرد در این خط کار می‌کنند و به طور قطع با رسیدن تراموا جان خود را از دست خواهند داد. خوشبختانه، راننده می‌تواند مسیر تراموا را به یک خط فرعی تغییر دهد و جان همه پنج نفر را نجات دهد. اما متأسفانه، یک مرد دیگر در این خط فرعی مشغول کار است و اگر تغییر مسیر انجام شود، او کشته خواهد شد
در این نسخه اصلی، تصمیم‌گیری آسان به نظر می‌رسد: راننده باید مسیر را تغییر دهد و جان پنج نفر را نجات دهد، حتی به قیمت یک جان. اگر راننده را با یک برنامه کامپیوتری جایگزین کنیم، به این برنامه نیز دستور می‌دهیم که در هر موقعیت مشابه، تعداد کمتری را به قتل برساند. ممکن است ما ترجیح دهیم که یک برنامه این تصمیم را بگیرد، زیرا این برنامه همیشه بر اساس منطق عمل می‌کند در حالی که یک انسان ممکن است دچار وحشت شود.
مسئله ترالی در نسخه‌های مختلف خود جالب‌تر می‌شود. در مقاله‌ای که در سال 1985 منتشر شد، فیلسوف MIT، جودیت جارویس تامسون، سناریویی دیگر را مطرح می‌کند: به جای اینکه راننده یک تراموای بی‌سرپرست باشید، از روی یک پل به تماشای آن می‌نشینید که به سمت پنج نفر بی‌دفاع در حال حرکت است. تنها راه متوقف کردن آن، استفاده از یک وزنه سنگین است و شما در کنار یک
مرد بزرگ ایستاده‌اید. آیا باید این مرد را از روی پل هل بدهید و او را به قتل برسانید تا جان پنج نفر را نجات دهید؟
Is there a difference between the standard trolley problem and the variation with pushing a fat woman off the bridge? - Quora
یک برنامه کامپیوتری مشابه با آنچه که تراموای اول را هدایت می‌کند، در حل این مسئله مشکلی نخواهد داشت. در واقع، این برنامه هیچ تفاوتی بین این دو مورد نمی‌بیند. اما وقتی با مسئله ترالی تامسون مواجه می‌شوند، بسیاری از مردم احساس می‌کنند که هل دادن مرد چاق به سمت مرگش نادرست است. آن‌ها استدلال می‌کنند که قتل از پیش برنامه‌ریزی شده ذاتاً نادرست است، صرف نظر از نتایج آن.
هل دادن کسی به سمت مرگ با دستان خود از نظر روانی بسیار مشکل‌ساز است، حتی اگر بپذیریم که از نظر نظری هیچ تفاوتی با کشتن او از فاصله 10 مایلی ندارد. در عین حال، اجازه دادن به کسی در فاصله دور – مثلاً یک کودک گرسنه در کشور دیگری – تا به خاطر عدم اقدام شما بمیرد، به نظر می‌رسد که به سختی احساس عذاب وجدان ایجاد می‌کند. همانطور که فیلسوفانی مانند پیتر سینگر به طرز قانع‌کننده‌ای استدلال کرده‌اند، سخت است که ببینیم چرا باید این را بپذیریم.

ذهن‌های بزرگ از دیرباز با پیچیدگی‌های مشابهی دست و پنجه نرم کرده‌اند که یکی از بارزترین آن‌ها آموزه «اثر دوگانه» توماس آکویناس است. این آموزه که در قرن سیزدهم برای بررسی مجاز بودن دفاع از خود توسعه یافت، استدلال می‌کند که نیت شما هنگام انجام یک عمل باید در نظر گرفته شود، به ویژه زمانی که اقدامات شما عواقب مثبت و منفی به همراه دارد. به عنوان مثال، اگر شما
تصمیم بگیرید که تراموا را منحرف کنید تا جان پنج نفر را نجات دهید، نیت اصلی شما نجات جان‌هاست. حتی اگر یک مرگ به عنوان اثر ثانویه اجتناب‌ناپذیر باشد، عمل شما در مقایسه با قتل از پیش برنامه‌ریزی شده در یک دسته متفاوت قرار می‌گیرد.
آموزه اثر دوگانه به حسی اشاره دارد که اکثر مردم و سیستم‌های قانونی با آن هم‌نظرند: برنامه‌ریزی برای کشتن کسی و سپس انجام آن، نادرست‌تر از کشتن او به طور تصادفی است. با این حال، یک سوال دشوار باقی می‌ماند: تا چه حد می‌توان به شهود و نیت‌های انسانی اعتماد کرد؟ دیوید ادموندز در کتاب جدیدش با عنوان “آیا شما مرد چاق را خواهید کشت؟” (2013) به بررسی این موضوع می‌پردازد و بیان می‌کند که رشته‌ای از علوم نوظهور شروع به طرح ادعاهایی در این زمینه کرده‌اند. برای جاشوا گرین، روان‌شناس و مدیر آزمایشگاه شناخت اخلاقی دانشگاه هاروارد، آموزه اثر دوگانه بیشتر به عنوان یک توجیه پس از وقوع تلقی می‌شود تا یک بینش بنیادی.
در کتاب جدیدش با عنوان “قبیله‌های اخلاقی” (2013)، گرین اذعان می‌کند که تقریباً همه افراد احساس نادرستی غریزی در مورد استفاده از زور شخصی برای آسیب رساندن به دیگران دارند. او این حس اخلاقی غریزی را مهم می‌داند، اما به هیچ وجه کامل نیست؛ این حس نوعی عملکرد عمیق مغزی است که به سختی می‌توان انتظار داشت با پیشرفت‌های تمدنی همگام شود. گرین پیشنهاد می‌کند که انسان‌ها مانند دوربین‌ها هستند و دو حالت اخلاقی دارند: خودکار و دستی. احساسات ما «فرآیندهای خودکار هستند… ابزارهایی برای دستیابی به کارایی رفتاری» که به ما اجازه می‌دهند به طور مناسب به برخوردهای روزمره پاسخ دهیم.
در عین حال، استدلال ما معادل حالت «دستی» است: «توانایی کار کردن به طور عمدی بر روی مسائل پیچیده و نو».
 
  اگر بتوانید شادی عمومی را با دقت عملی کافی کمّی کنید، به نوعی محاسبه دست می‌یابید که می‌تواند از بار زیستی و وابستگی‌های قبیله‌ای عبور کند.
 
این دوگانگی از کارهای اقتصاددان رفتاری دانیل کانمن در دانشگاه پرینستون آشناست. با این حال، بر خلاف کانمن، گرین در مورد غلبه بر تعصباتی که تکامل در مغز ما نهادینه کرده است، خوشبین است.
خودروی قابل انعطاف GMXO طراحی شده توسط علی جعفری می‌تواند بدون راننده حرکت کند. این خودرو بر اساس نیازهای پارک و سرنشینان، قابلیت کشیده شدن یا جمع شدن دارد. عکس با مجوز جنرال موتورز.
او استدلال می‌کند: «با کمی دیدگاه، می‌توانیم از تفکر در حالت دستی برای رسیدن به توافق با “سرهای‌مان” استفاده کنیم، با وجود تفاوت‌های غیرقابل سازش در “دل‌های‌مان”.» یا به طور صریح‌تر، نتیجه‌گیری “قبیله‌های اخلاقی” می‌گوید که باید «قوانینی را که در دل‌های‌مان نوشته شده‌اند، زیر سوال ببریم و آن‌ها را با چیزی بهتر جایگزین کنیم». این «چیزی بهتر» بیشتر شبیه یک خودرو خودران به نظر می‌رسد. حداقل، به نظر می‌رسد که جایگزینی یک قطعه اتوماسیون خارجی کارآمدتر به جای مدارهای خودمان است. در نهایت، اگر اخلاق عمومی یک ماشین زیستی شگفت‌انگیز اما متأسفانه نادرست باشد، چه فرصتی بزرگ‌تر از این وجود دارد که کدی جدید و خالص را به حرکت درآوریم، بدون بار مغزی گیج‌کننده؟ اگر بتوانید شادی عمومی را با دقت عملی کافی کمی کنید، گرین استدلال می‌کند که به نوعی محاسبه دست می‌یابید که می‌تواند از بار زیستی و وابستگی‌های قبیله‌ای عبور کند.

در حال حاضر، ماشین‌هایی که قادر به «تفکر» به معنای نزدیک به انسان هستند، هنوز در دنیای علم تخیل باقی مانده‌اند. اما سوالی که باید به آن پاسخ دهیم این است که چگونه باید برای ظهور احتمالی آن‌ها آماده شویم. به عنوان مثال، در زمینه تریاژ پزشکی، که در آن اتوماسیون و الگوریتم‌ها نقش مهمی دارند، تصمیم‌گیری‌هایی انجام می‌شود که ریسک و فایده را در میان حوادث انسانی متعادل می‌کند. با توجه به محدودیت زمان و منابع، ممکن است یک بیمار در آستانه مرگ نسبت به فردی که تنها در حال درد کشیدن است، اولویت بیشتری داشته باشد.
در میدان جنگ، تریاژ می‌تواند به معنای رها کردن مجروحان باشد، اگر مراقبت از آن‌ها جان دیگران را به خطر بیندازد. در بهداشت عمومی، نگرانی‌های قرنطینه و آلودگی می‌تواند شامل رها کردن چند نفر برای حفاظت از بسیاری دیگر باشد. این‌ها معضلات باستانی وجود جمعی هستند که فناوری و تحقیقات علمی آن‌ها را به طرز قابل توجهی کارآمدتر، مؤثرتر و مبتنی بر شواهد کرده‌اند.
اما چه می‌شود اگر ما نه تنها در حال برنامه‌ریزی رویه‌های سریع‌تر در ابزارهای خود باشیم، بلکه از آن‌ها برای تعیین اصول پشت این تصمیمات نیز استفاده کنیم: وزن‌دهی به تریاژ، یا لحظه‌ای که در صورت بروز بحران، درهای یک کارخانه شیمیایی به‌طور خودکار بسته می‌شود؟ در انتهای دیگر این مقیاس، ممکن است بپرسیم: آیا باید تلاش کنیم تا همه زندگی‌های انسانی را به طور مساوی ارزش‌گذاری کنیم و درآمدها و تلاش‌های خود را به توزیع عادلانه‌ای که یک هوش مصنوعی انجام می‌دهد، واگذار کنیم؟
شاید شما در مورد چنین حدس‌هایی تردید کنید. اما در نهایت، ما همیشه به ماشین‌ها نیاز خواهیم داشت تا ما را از سایر ماشین‌ها محافظت کنند. نیک بستروم، فیلسوف دانشگاه آکسفورد، بر این باور است که باید به این سوال بپردازیم که چگونه می‌توانیم به طور موفقیت‌آمیز به یک چارچوب مرجع بی‌سابقه منتقل شویم. در مقاله‌ای با عنوان «اخلاق هوش مصنوعی»، بستروم و الیعزر یودکوسکی استدلال می‌کنند که الگوریتم‌های تصمیم‌گیری پیچیده‌تر نه تنها اجتناب‌ناپذیر، بلکه مطلوب نیز هستند، به شرطی که شفاف و قابل
پیش‌بینی باقی بمانند. اگر خودروی خودران من آماده باشد تا جان من را برای نجات چندین نفر دیگر قربانی کند، این اصل باید از پیش به وضوح مشخص شود. اما در مورد بدترین سناریوها چه؟ وقتی صحبت از اتوماسیون و هوش مصنوعی می‌شود، حوادثی که در افق ما قرار دارند ممکن است از نوعی باشند که قابل بازیابی نیستند. اگر اشتباه کنید و اولویت‌هایی را که به شکوفایی انسانی آسیب می‌زند، در نسل اول ماشین‌های هوشمند واقعی نهادینه کنید، ممکن است دیگر هیچ انسانی برای جمع‌آوری تکه‌های باقی‌مانده وجود نداشته باشد. ماشین‌ها طبیعتی ثابت ندارند و هر آنچه که ما به حرکت درآوریم هستند. اگر فقط یک خودروی خودکار کاملاً عملکردی بسازید، الگوی ساخت 1 میلیارد خودرو را خواهید داشت. در نهایت، همه چیز به کارایی برمی‌گردد و ما باید برای هر ارزشی که به‌طور بی‌رحمانه به نمایندگی از ما دنبال می‌شود، آماده باشیم.
جامعه از زمان‌های بسیار قبل از انقلاب صنعتی از میوه‌های اتوماسیون بهره‌مند شده است و دستاوردها در زمینه‌های مختلف بسیار زیاد بوده‌اند. با این حال، اگر سرنوشت ما نوعی عایق وجودی جدید باشد، این به دلیل غلبه بر تاریخ و زمان نخواهد بود، بلکه به این دلیل خواهد بود که ما درگیری را به چیزی فراتر از خودمان واگذار کرده‌ایم.
در نهایت، «خیر عمومی» به هدفی تبدیل می‌شود که می‌توانیم به‌طور مستقل از خودمان به حرکت درآوریم، اما هیچ چیز فراتر از ابزارهای درخشان ما وجود ندارد. معیار موفقیت آن‌ها همان چیزی خواهد بود که همیشه بوده است: حوادث عجیب یک زندگی انسانی.

برای مطالعه بیشتر: خطرات هوش مصنوعی

قبلی تاریخچه‌ای مختصر از هوش مصنوعی: از آغاز تا آینده‌ای روشن!
بعدی احساسات در موجودات زنده: آیا هوش مصنوعی آگاهی دارد؟

دیدگاهتان را بنویسید لغو پاسخ

جستجو برای:
دسته‌ها
  • فایل های آموزشی رایگان
  • مقالات
دسته‌های محصولات
  • دوره ها
  • عمومی
نوشته‌های تازه
  • تحولی نوین در صنعت بیمه با هوش مصنوعی
  • سیستم‌های توصیه‌گر: راهنمای جامع
  • ربات هوش مصنوعی چیست؟ اشتراکات و کاربردهای رباتیک و هوش مصنوعی
  • تعریف هوش مصنوعی در زنجیره تأمین
  • هوش مصنوعی احساسی: درک و تحلیل احساسات انسانی
درباره ما

هدف ما آموزش هوش مصنوعی با استفاده از پایتون و متلب می باشد تا بتوانیم موارد کاربردی آن را به شما عزیزان آموزش دهیم.

دسترسی سریع
  • دوره ها
  • تماس با ما
    نماد ها
    کلیه حقوق مادی و معنوی این سایت متعلق به هوش مصنوعی رضوان می‌باشد.
    اشتراک گذاری در شبکه های اجتماعی
    ارسال به ایمیل
    https://airezvan.com/?p=11116
    دسته بندی دوره ها
    دسته بندی بلاگ
    دوره های من
    دسته بندی دوره ها

    دوره ها

    • 3 دوره
    دسته بندی بلاگ

    فایل های آموزشی رایگان

    • 32 نوشته

    مقالات

    • 56 نوشته
    دوره های من
    برای مشاهده خریدهای خود باید وارد حساب کاربری خود شوید
    Facebook Twitter Youtube Instagram Whatsapp
    مرورگر شما از HTML5 پشتیبانی نمی کند.