تفسیر اول اینکه بگیم همین که یه نفر در فرانسه مسلمان باشه، احتمال مجرم بودنش خیلی بیشتره. پس باید بیشتر مواظب اینها باشیم. چون مجرم بالقوه هستن.
تفسیر دوم اینه که بگیم احتمالاً پلیس یا سیستم قضایی نسبت به اینها سوگیری داره و راحتتر حکم زندان صادر میکنه. یا مسلمانها در فرانسه جزو گروههای نادیدهگرفته شده و سرکوب شده هستن و به همین علت، از امکانات، مزایا، وام و سایر امکانات رفاهی محرومند و به سمت بزهکاری و جرم و جنایت سوق داده میشن.
قضاوت در این که کدوم تفسیر درسته (یا شاید یک تفسیر بینابینی) کار سادهای نیست. تحلیلگر میخواد. متخصص سیاستگذاری میخواد. فرد آشنا با تفکر سیستمی میخواد. جامعهشناس میخواد و ...
ما با آمار، سواد عددی، علم داده و به تعبیرِ عام و غیردقیقی که این روزها مد شده، با هوش مصنوعی، میتونیم دادههامون رو تمیز کنیم، طبقهبندی کنیم، توصیف کنیم، بررسی کنیم و ...
اما در یه لایهٔ بالاتر (حداقل فعلاً و احتمالاً تا مدتها) نهایتاً باید یه جا در مدلسازی، قضاوت انسانی رو روی اونها سوار کنیم. قضاوتی که هم با کانتکست (بافت و محیط بیرونی) آشناست، و هم نظام ارزشی خودش رو داره (مثلاً سوال رایج این روزها در ایران و اروپا: آیا مهاجر حق داره به اندازهی مردم خود کشور جرم انجام بده؟ یا کشورها حق دارن بگن ما مهاجرانی رو میپذیریم که از متوسط مردم خودمون بالاتر و بهتر باشن؟).
فکر میکنم در یک تقسیمبندی ساده، آدمها رو در مواجهه با ابزارهای جدید (علم داده، هوش مصنوعی و ...) میشه به سه دسته تقسیم کرد.
🔸 دستهٔ اول این ابزارها رو نادیده میگیرن. و نهایتاً به مشتری و مصرفکنندهٔ محصولات این ابزارها تبدیل میشن (consumer).
🔸️ دستهٔ دوم ابزارها رو زیادی جدی میگیرن. و نهایتاً به استفادهکننده این ابزارها تبدیل میشن (user).
🔸️ دستهٔ سوم میرن سراغ «مرز و محدودیتهای ابزار». میبینن ابزار تا کجا جلو میره و در کجاها نمیتونه جواب بده. اینها میتونن سیاستگذاران قوی، تحلیلگران قوی و یا طراحان نسل بعدی ابزارها بشن.
پ.ن.۱: وقتی میگم ابزار جدید، حواسم هست که هوش مصنوعی حتی قبل از اینترنت شروع شده و علم داده هم قدیمیتر از این حرفهاست. منظورم صرفاً آگاه شدن جامعه از وجود چنین ابزارهاییه.
پ.ن.۲: برای این که بتونیم مرز و محدودیتهای ابزارها رو بشناسیم، لازمه اول خود ابزارها رو عمیق بشناسیم. نمیشه مستقیم و بدون شناخت عمیق، مستقیم بریم در لایهٔ آخر.
تفسیر دوم اینه که بگیم احتمالاً پلیس یا سیستم قضایی نسبت به اینها سوگیری داره و راحتتر حکم زندان صادر میکنه. یا مسلمانها در فرانسه جزو گروههای نادیدهگرفته شده و سرکوب شده هستن و به همین علت، از امکانات، مزایا، وام و سایر امکانات رفاهی محرومند و به سمت بزهکاری و جرم و جنایت سوق داده میشن.
قضاوت در این که کدوم تفسیر درسته (یا شاید یک تفسیر بینابینی) کار سادهای نیست. تحلیلگر میخواد. متخصص سیاستگذاری میخواد. فرد آشنا با تفکر سیستمی میخواد. جامعهشناس میخواد و ...
ما با آمار، سواد عددی، علم داده و به تعبیرِ عام و غیردقیقی که این روزها مد شده، با هوش مصنوعی، میتونیم دادههامون رو تمیز کنیم، طبقهبندی کنیم، توصیف کنیم، بررسی کنیم و ...
اما در یه لایهٔ بالاتر (حداقل فعلاً و احتمالاً تا مدتها) نهایتاً باید یه جا در مدلسازی، قضاوت انسانی رو روی اونها سوار کنیم. قضاوتی که هم با کانتکست (بافت و محیط بیرونی) آشناست، و هم نظام ارزشی خودش رو داره (مثلاً سوال رایج این روزها در ایران و اروپا: آیا مهاجر حق داره به اندازهی مردم خود کشور جرم انجام بده؟ یا کشورها حق دارن بگن ما مهاجرانی رو میپذیریم که از متوسط مردم خودمون بالاتر و بهتر باشن؟).
فکر میکنم در یک تقسیمبندی ساده، آدمها رو در مواجهه با ابزارهای جدید (علم داده، هوش مصنوعی و ...) میشه به سه دسته تقسیم کرد.
🔸 دستهٔ اول این ابزارها رو نادیده میگیرن. و نهایتاً به مشتری و مصرفکنندهٔ محصولات این ابزارها تبدیل میشن (consumer).
🔸️ دستهٔ دوم ابزارها رو زیادی جدی میگیرن. و نهایتاً به استفادهکننده این ابزارها تبدیل میشن (user).
🔸️ دستهٔ سوم میرن سراغ «مرز و محدودیتهای ابزار». میبینن ابزار تا کجا جلو میره و در کجاها نمیتونه جواب بده. اینها میتونن سیاستگذاران قوی، تحلیلگران قوی و یا طراحان نسل بعدی ابزارها بشن.
پ.ن.۱: وقتی میگم ابزار جدید، حواسم هست که هوش مصنوعی حتی قبل از اینترنت شروع شده و علم داده هم قدیمیتر از این حرفهاست. منظورم صرفاً آگاه شدن جامعه از وجود چنین ابزارهاییه.
پ.ن.۲: برای این که بتونیم مرز و محدودیتهای ابزارها رو بشناسیم، لازمه اول خود ابزارها رو عمیق بشناسیم. نمیشه مستقیم و بدون شناخت عمیق، مستقیم بریم در لایهٔ آخر.