Репост из: علوم شناختی
هاوکینگ و هوش مصنوعی
✏️ مهدی خلیلی
🔸 #استیون_هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است. در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های #هوش_مصنوعی و آینده بشریت، بپردازم.
🔸مقدمتا باید یادآور شد که هاوکینگ مشاورِ #موسسه_آینده_زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ #مخاطره_های_وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس 2014 پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.
🔸از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال 2015 برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند 10 میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.
🔸از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (2014) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.
🔸هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.
https://goo.gl/xBNaoP
چند منبع در این رابطه:
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence
https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
https://www.youtube.com/watch?v=fFLVyWBDTfo
🔹پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.
https://t.me/cognitive_science_iran
✏️ مهدی خلیلی
🔸 #استیون_هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است. در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های #هوش_مصنوعی و آینده بشریت، بپردازم.
🔸مقدمتا باید یادآور شد که هاوکینگ مشاورِ #موسسه_آینده_زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ #مخاطره_های_وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس 2014 پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.
🔸از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال 2015 برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند 10 میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.
🔸از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (2014) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.
🔸هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.
https://goo.gl/xBNaoP
چند منبع در این رابطه:
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence
https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
https://www.youtube.com/watch?v=fFLVyWBDTfo
🔹پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.
https://t.me/cognitive_science_iran