ایجاد اصول اخلاقی در هوش های مصنوعی

اهمیت بالای نوآوری بشر در ایجاد اصول اخلاقی در هوش های مصنوعی

امروزه درون گرایی تبدیل به یک کالا شده است.

این ایده که اکنون ایده ها و توانایی ما انسان ها در واکنش نشان دادن به وقایع تبدیل به الگوریتم هایی استخراج شده اند ، اغراق آمیز به نظر می رسد. ما انسان ها این طور تصور می کنیم که بر تصمیم هایی که می گیریم ، کنترل کامل را داریم و این تصمیمات ار الگو های شخصیتی ما ناشی می شوند و این گونه نیست که کسی دیگر این الگو های تفکر و تصمیم گیری را به مانند ماتریسی کد شده برای ذهن ما نوشته باشد.

اما این امر را از کجا می توانید تشخیص دهید ؟ آیا تا به حال لیستی از تمام کارهایی را که خودتان انجام داده و به کس دیگری واگذار نمی کنید تهیه کرده اید ؟ آیا واقعا می توانید تشخیص دهید که کجا مرز های اخلاقی ما انسان ها پایان می پذیرد و تعصبات و سمت گیری های از پیش تعیین شده شما شروع می شود ؟

2015-10-04_070635

با این که ما از بازخورد هایی که از تکنولوژی های حسگر ها و داده ها و هوش های مصنوعی دریافت می کنیم ، استقبال می کنیم ، ولی باید قبول کنیم که در حال حاضر در نقطه عطف مهمی قرار گرفته ایم. محدود کردن و مشخص کردن پارامتر هایی که بین کمک و یاری رسانی و اتوماتیک سازی تا به حال این به مقدار برای رفاه انسان در مرکزیت نبوده است. اما امروزه ، زیبایی در هوش مصنوعی فرد دارنده قرار گرفته است. با حساسیتی که برای ارزش داده های شخصی قائل هستیم ، ما بینش های ارزشمندی را در رابطه با هویت مان ، که تفاوت های ظریف لازم به منظور حرکت به سوی مدرنیته الگوریتمی شده لازم است را ، از خودمان تراوش می کنیم.

اگر هیچ استانداردی بر اساس ارزشی برای هوش مصنوعی وجود نداشته باشد ، پس تمایلات و تعصبات تولید کنندگان آن ها ، کد ها و پایه های جهانی اخلاقیات انسانی ما را تعریف خواهند کرد. اما آن ها نمی بایست به تنهایی بار این مسئولیت را بر دوش بکشند. زمان آن رسیده است که جامعه هوش مصنوعی مان را بد نام کنیم و شروع کرده و به آن ها بفهمانیم که بر اساس اخلاقیات و کد ها و قوانین ما ، زندگی درست و خوب چه معنی ای دارد.

مفهوم و هدف از اخلاقیات

” آن طور که می خواهید به سمت جلو پیش بروید “. این حرف ها را آقای مایکل استوارت ، که موسس و رئیس و مدیر عامل شرکت Lucid ، که یکی از شرکت های هوش مصنوعی واقع در کشور استرالیا است ، که به تازگی تشکیل اولین هیئت مشورتی اخلاقیات ( EAP ) این صنعت را اعلام کرده است. این در حالی است که شرکت گوگل زمانی که بخش هوش مصنوعی DeepMind را در سال 2014 تصاحب کرد ، هیئتی مشابه را تشکیل داد ، ولی در حال حاضر هیچ گونه تبدیل به واقعیتی در مورد آن وجود ندارد. هیئت Lucid ، در مقایسه با آن ، در حال حاضر شروع به فعالیت به عنوان یک سازمان مجزا نسبت به بخش تحقیقاتی تجارت اش را کرده است ، و دیدگاه هایی را برای این شرکت و مشتریان به وجود آورده است. آقای استوارت اظهار داشته است : ” تلاش های ما ، بر این پایه و اساس است که شرکت و گروه اخلاقیات ما می خواهد مطمئن شود که روندی که تکنولوژی ما در پیش گرفته است به آینده ای خوب و روشن ختم خواهد شد”.

خانم باترفیلد ، افسر ارشد EAP و مسئول سرپرست رسیدگی به مشکلات مربوط به اخلاقیات است که صنعت هوش مصنوعی و در کل جامعه انسانی را تحت تاثیر قرار می دهد است. از داخل ، سازمان EAP مرکز کنترلی را در زمینه اخلاقیات و رفتار های اخلاقی برای این کمپانی به وجود آورده است. حتی افرادی در دفتر خانم باترفیلد بر گروه های اصلی و حیاتی تولیدات کمپانی نیز نظارت می کنند. در خارج ، آن طور که ایشان می گویند : ” ما قصد داریم در تحقیقات مان به منظور مطالعه و نشان دادن مزایای هوش مصنوعی و همچنین برای کمک کردن به کمپانی Lucid در زمینه تصمیم گیری های اساسی در این حیطه ، مانند امضای نامه ای که جدیداً به منظور پیاده سازی قوانین و استفاده های مشتریان از این محصولات امضا شده بود ، از سیستم Cyc intelligence ( پلتفرم استدلال منطقی هوش مصنوعی شرکت Lucid ) ، استفاده کنیم”.

اطمینان از این که تاثیرات تکنولوژی هوش مصنوعی بر جامعه ما مثبت خواهد بود ، کاری نیست که به خودی خود روی دهد. اما آن طور که شرکت Lucid توضیح می دهد ، لازم نیست که اخلاقیات ، تنها با مانور دادن در قلمرو کاهش دادن ریسک ها ، مانع بروز خلاقیت شوند. پروسه های اخلاقی با هماهنگی عمیق تر با ارزش هایی اصلی و اساسی کمپانی ها می توانند محصولات مناسب تری را تولید کرده و باور و اعتماد عموم را بیشتر به خودشان جلب کنند. با شفافیت قرار دادن ارزش های مشتریان تان در این پروسه ها می تواند این اشخاص را دوباره در روند شخصی سازی وارد کند.

بخش EAP کمپانی Lucid در مقابل تعویق ها و دیر کرد های شرکت DeepMind در این زمینه ، استاندارد های جدیدی را برای نوآوری در صنعت هوش مصنوعی ایجاد کرده است. آن طور که آقای استوارت بیان می کند ، شیوه های اخلاقی نامشخص ، تصمیمات تجاری مناسبی نیستند. او بیان می کند : ” این که صبر کنید که محصولاتی که تاثیر منفی و مخلانه ای بر صنعت دارند تولید شوند و سپس در مورد آن ها فکر کنید ، منطقی به نظر نمی رسد. ما قصد داریم بهتری نوع و روش را از ابتدا به بهترین کل اجرا کنیم ، تا این که تاثیرات آن از همه نظر مورد قبول باشد”.

الهام گیری از درون نگری

خانم دکتر آیمی وینزبرگ ، که یک استاد یار درس فلسفه تکنولوژی در دانشگاه Twente در کشور هلند و همچنین رهبر فکری در صنعت نوپای مشاوران اخلاقی صنایع می باشد بیان کرده است : ” من نقش خودم را به این گونه نمی بینم که مثلا بیان کنم این کار را نکنید ، بلکه من در مورد این که مهندس و یا طراحان از کار هایشان چه هدفی دارند ، سوال می کنم. چگونه ما می توانیم بدون تعدی به ارزش هایی که آن ها را خیلی عزیز می شماریم ، به این اهداف دست پیدا کنیم ؟”. علاوه بر نقش های سنتی ای که یک فرد موجود در هیئت اخلاقیات و یا برد بررسی های سازمانی ( IRB ) دارد ، یک مشاور بیشتر از یک دانشگاهی به عنوان یک طراح عمل می کند. علاوه بر تمرکز بر روی پیشامد های منفی احتمالی ، مشاوران متدلوژی هایی را برای شرکت کنندگان تهیه می کنند تا با استفاده از آن طرح ها و تصورات قوی تری را در رابطه با محصولات و تکنولوژی پرورش دهند. در زمینه هوش مصنوعی ، این مدل مار می تواند باعث ایجاد نوآوری شود. خانم وینزبرگ بیان می کند : ” این جا جایی است که کمپانی ها می توانند واقعا سود کنند ، وقتی که یکی از مشاوران به عنوان یکی از اعضای تیم طراحی فعالیت می کند ، بر روی پروسه کار محدودیت ایجاد نمی کند ، بلکه باعث ایجاد چشم انداز هایی می شود که می تواند تاثیراتی عملی در پروژه داشته باشد “.

آقای رونالد ون رجسویک که در شبکه بین المللی تحقیقات و آموزش ( SURFnet ) در آکادمی ارتباطی هلند و برخی دیگر از سازمان های تحقیقاتی سراسر کشور کار می کند ، بیان کرده است : ” شما می توانید بعضی مواقع کار هایی را انجام دهید که قانونی هستند ولی از لحاظ اخلاقی کاملا نادرست می باشند “. وی به تازگی با خانم وینزبرگ همکاری کرده است تا کتابچه ای را تهیه کند که به کارمندان کمک می کند تا اشکالات اخلاقی موجود را که محققان خارجی می توانند از آن ها استفاده کنند را تشخیص دهند. او به ما اعلام کرد که این کتابچه ، که قرار است به زودی به صورت عمومی عرضه شود ، تنها یک چک لیست ساده نیست که به وسیله آن بتوانید تائیدیه یکی از طرح های ابتدایی تان را بگیرید ، بلکه طرحی است که برای کارکنان با روحیه کار گروهی بالا طراحی شده است تا با استفاده از آن بتوانند به یک تصمیم عملی و علمی برسند. آن طور که این کتابچه عنوان می کند : ” فضیلت اخلاقیات اجازه بحث و بررسی ای فراتر از قوانین سفت و سخت را می دهد و بالاتر از بحث هایی است که تنها برای پیامد ها انجام می شوند. این کتابچه افراد را تشویق می کند که به دنبال نوآوری و تعهد درونی بروند ، تا بتوانند مقاصد پشت اعمالشان را به درستی مشخص کنند “. درون نگری با استفاده از این مدل بحث ها و گفت و گو ها باعث ایجاد نوآوری می شود. در حالی که برخی از تصمیمات اخلاقی ممکن است روشن به نظر برسند ، ارزش ها امری ذهنی هستند. با به بحث آزاد گذاشتن مشکلات است که درک جمعی حاصل شده و می تواند راه های نامشخص قبلی را روشن کند.

“هر چه ما با سیستم هایی که به ارتباطات مستقیم انسانی بیشتر احتیاج دارند بیشتر تعامل می کنیم ، هرچه بیشتر به وجود خودمان پی می بریم” ، این صحبت ها را آقای جک متکاف که عضوی از سازمان Data & Security ، که یک سازمان تحقیقاتی واقع در نیویورک است که تمرکز اش را بر روی مشکلات اجتماعی و اخلاقی حول تکنولوژی های داده ای قرار داده است ، کار می کند ، بیان کرده است. وی همچنین یکی از موسسین شرکت مشاوره ای با نام Ethical Resolve است و بیان می دارد که در راه پی بردن به این که کمپانی ها برای دستیابی به ارزش هایشان چه تصمیم های اخلاقی ای را لازم است اتخاذ کنند ، آن ها درک درست تر و بهتری را نسبت به خودشان و کمپانی شان پیدا کرده اند. هر چه بیشتر یک کمپانی منعکس کننده در درون خودش باشد ، حتما موفق تر نیز خواهد بود.

وی اذعان می دارد که همواره این پروسه شاد و جذاب نیست – معمولا مشتریان از سوال های تشدید شونده آن ها شکایت می کنند و ناراضی هستند – اما در مطرح کردن این سناریو های دشوار و ناملایم است که آن ها در مورد تصمیمات آن شرکت به شفافیت می رسند. آقای متکاف این گونه اظهار می دارد: ” فیلسوف بودن در این است که سوال های ساده اما دقیق بپرسید . شما سوالاتی را می پرسید که در ابتدا ممکن است احمقانه به نظر برسند ، اما آن ها را تا رسیدن به پیامد منطقی شان پیگیری می کنید به ارزش های اساسی ای دسترسی پیدا می کنید که از وجود شان اطلاعی نداشتید”.

فن آوری هوشمند بشریت

“ریسک شروع نکردن یک پروسه جهت معرفی کردن استاندارد های اخلاقی جهانی این است که عقب انداختن این مسئله می تواند موجب ایجاد مانعی بر سر راه نوآوری در هوش مصنوعی شود بدین صورت که می تواند موجب ایجاد الگوریتم هایی نا متقارن در میان کمپانی های متفاوت شود” ، این صحبت ها را آقای کنستانتین کاراچالیس که مدیر عامل انجمن استاندارد های IEEE – که انجمنی از زیر مجموعه های سازمان IEEE می باشد که بزرگترین انجمن حرفه ای مهندسی در جهان است- می باشد ، بیان کرده است. همراه با مسائل مربوط به قابلیت همکاری ، آقای کاراچالیس باور دارد که بخشی از استاندارد های هوش مصنوعی می بایست شامل بخشی مرتبط با کنترل بهتر هویت ها و اطلاعات شخصی باشد. ” این یک خیال است اگر بگوییم که حریم خصوصی مرده است و دیگر در دنیای امروزی وجود ندارد. اگر فردی نماینده ای را نداشته باشد که حول داده ها و ارتباطات آن ها مدیریت و کنترل انجام دهد ، چگونه می تواند در هرگونه فرآیند دموکراتیک شرکت کند ؟ ”

دیدگاه آقای کاراچالیس زیبا و فلسفی و در عین حال عمدا سقراطی است ، که طراحی شده است تا گفت و گو های بین المللی ای را حول و حوش اخلاقیات در حیطه هوش مصنوعی ایجاد کرده و به سازمان IEEE کمک کند تا استاندارد هایی را کشف کند که بتواند به پیشرفت و راحتی انسان ها بهتر کمک کند. این فرآیندی است که به انسان ها نسبت به ماشین ها ارجحیت قائل می شود. آقای کاراچالیس احساس می کند که استاندارد های اخلاقی تعیین شده به وسیله الگوریتم ها انحرافات حول و حوش تصمیمات اخلاقی را نادیده می گیرد. هوش مصنوعی استاندارد های فرهنگی و جداگانه را تعیین می کند و همواره انسان ها را پایین تر جلوه می دهد. او می گوید: ” بخشی از آن چیزی که شامل کرامت انسانی ما می شود ، ظرفیت ما برای تناقض است ، به همراه ارزش هایی که باعث پیشرفت و بهبود ما می شود “.

آقای جف کول وین که سردبیر ارشد مجلهFortune و نویسنده کتاب ” انسان ها دست کم گرفته می شوند : چه چیزهایی را افراد با دستاورد های بالا می توانند بدست بیاورند که ماشین های هوشمند هرگز نمی توانند به آن دست پیدا کنند ” می باشد. این کتاب توضیح می دهد که چگونه ارزش های اقتصادی صفا انسانی همچون همدلی و همدردی همان طور که ماشین ها در حال تغییر ماهیت جامعه هستند ، در حال گسترش است. تا این برهه در تاریخ ، ماشین ها به جای جایگزین کردن توانایی های ما ، آن ها را تکمیل کرده اند. حالا بسیاری از اقتصاد دانان حس می کنند که این تعادل در حال جا به جایی است ، چرا که استفاده از ماشین ها به عنوان نیروی کار اجتناب ناپذیر شده ، و این امر باعث تغییر تفکر در مورد شغل ها و اخلاقیات کاری در حول آن شده است. آقای کول وین می گوید : ” این دنیا یک دنیای جدید از لحاظ اقتصادی نیست ، بلکه یک دنیای جدید از دید اخلاقی است “.

اما کتاب وی تنها در معناشناسی اشتغال ، یا این که چه موقع رباط ها جای چه چیز هایی را خواهند گرفت تمرکز نکرده است. فرضیه او بر این مبنا و واقعیت ذهنی استوار است که ما می بایست تاثیراتی را که استاندارد هایی که ایجاد می کنیم بر عاقبت ما دارد ، قبول کرده و در نظر بگیریم. او می گوید : ” بحث من بر سر این است که حتی اگر کامپیوتر ها بتوانند کاری را که یک فرد می تواند انجام دهد را اجرا کنند ، باز هم تجربیات انسانی مشخصی وجود دارد که از کار کامپیوتر ها با ارزش تر خواهد بود “.

جنبه های اخلاقی این جنبش

وقتی که نوبت به مورد نقد قرار دادن اعمال ما و تحت تاثیر قرار دادن احساسات ما می رسد ، باید گفت که الگوریتم های جمع آوری شده از اینترنت در حال حاضر هویت اخلاقی ما را در دست گرفته اند. اما ما تنها با تکیه بر اراده آزاد جمعی تصادفی خودمان نمی توانیم نژاد بشر را به تکامل برسانیم. وقت آن رسیده است که صنعت هوش مصنوعی ساخت و ایجاد استاندارد های اخلاقی را در اولویت قرار داده و نوآوری های ناشی از گفت و گوی شفاف با سهام دارانمان را در راس کار قرار دهیم. و ما نیز باید با پذیرش فلسفه های درون نگری ، از این کار آن ها پشتیبانی کنیم ، قبل از این که فرصت مان را از دست بدهیم.

mashable