واکاوی خردکشی دیجیتال امکان ترور هدفمند با فناوری
بی دانلود: همایش هوش مصنوعی برای خردکُشی به عنوان یک نشست تخصصی و میان رشته ای امروز در دانشگاه علم و صنعت ایران به بررسی کاربست های پرخطر هوش مصنوعی در حوزه های امنیتی و سیاسی پرداخت.
به گزارش بی دانلود به نقل از مهر، محور اصلی این رویداد، تحلیل ادعای استفاده از فناوری های پیشرفته و سامانه های مبتنی بر هوش مصنوعی در ترور دانشمندان و تضعیف سرمایه های علمی کشورهاست؛ موضوعی که از آن بعنوان نمونه ای از «خِرَدکُشی» در عصر فناوری یاد می شود.
خیزش در مقابل خردکشی تلاشی برای بازگرداندن علم به مسیر خدمت به بشریت است
میثم فرج اللهی، استاد دانشگاه علم و صنعت ایران و عضو هیأت اجرائی همایش «خیزش در مقابل خردکشی»، ضمن اشاره به تحولات خردادماه کشور و ترور جمعی از دانشمندان و اساتید دانشگاه، از تشکیل حرکتی خودجوش از طرف استادان دانشگاه های کشور اطلاع داد. وی اظهار نمود: بعد از اتفاقاتی که در خردادماه رخ داد و بعضی از دانشمندان و اساتید دانشگاه توسط آن چه استکبار جهانی خوانده می شود مورد تهاجم و ترور قرار گرفتند، جمعی از اساتید دانشگاه های کشور به شکل خودجوش حرکتی را با عنوان "خیزش در مقابل خردکشی" شروع کردند. هدف این خیزش آن بود که نخبگان جامعه بین الملل را با خود همراه کند و این پرسش اساسی را مطرح سازد که چرا دانش و فناوری، که باید در خدمت رفاه و آسایش بشر باشد، امروز به ابزاری برای ترور، نسل کشی و تهاجم به کشورها تبدیل گشته است. فرج اللهی ضمن اشاره به برگزاری اولین رویداد بین المللی این جریان اضافه کرد: برای اولین بار در کشور، همایش بین المللی «خیزش در مقابل خردکشی» در ۱۷ مهرماه در مرکز تحقیقات فیزیک نظری و ریاضیات برگزار گردید. در این رویداد، مهمانان، سخنرانان و عرضه دهندگان مقالاتی از بالاتر از ۳۰ کشور جهان حضور داشتند و این همایش بنظر می رسد نقطه آغازی برای تشکیل نهضتی در جامعه نخبگانی دنیا در مقابل نظمی باشد که از علم و فناوری برای تهدید و ترور استفاده می نماید. به گفته ی ایشان، آن همایش سرآغازی برای تداوم این حرکت از راه برگزاری نشست های تخصصی بوده است. قرار بر این شد که نشست های تخصصی با تأکید بر حوزه های فناورانه برگزار شود؛ بخصوص در زمینه هوش مصنوعی که فناوری فراگیر عصر حاضر است. متاسفانه این فناوری بجای آن که در خدمت رفاه بشر باشد، در مواردی در خدمت ترور قرار گرفته و شواهد مختلفی وجود دارد که در جنگ ۱۲ روزه تحمیلی ضد جمهوری اسلامی ایران از این فنآوری استفاده شده و دانشمندان ما با سودجستن از آن مورد تهاجم قرار گرفته اند. عضو هیأت اجرائی همایش اشاره کرد: نشست امروز، اولین نشست تخصصی بعد از همایش بین المللی مهرماه است و امیدواریم این روند ادامه دار باشد. در ادامه هم فناوری های مختلف مورد بررسی و تحلیل قرار خواهند گرفت تا این خیزش در سطح نهادهای جهانی با هدایت اساتید دانشگاه تداوم یابد. فرج اللهی همینطور با تقدیر از حضور رسانه ها اظهار داشت: برنامه امروز به شکل زنده از برخی رسانه ها پخش خواهد شد و امیدواریم این همراهی رسانه ای هم استمرار داشته باشد.
خیزش فرزانگان ضد خردکشی تلاشی برای رویارویی با سوءاستفاده از علم در راه سلطه است
علیرضا سالاری، عضو هیأت اجرائی همایش در ادامه با انتقاد از آن چه روند مستمر ترور دانشمندان در دهه های اخیر خواند، تاکید کرد: در مقابل سوءاستفاده از موفقیتهای علمی برای سلطه و کشتار، جامعه دانشگاهی باید مسئولانه وارد میدان شود. وی در سخنانی ضمن اشاره به تحولات دهه های گذشته عنوان کرد: در رویارویی با قدرت یابی ملت های تحت سلطه، نقاب های پیشین آزادی خواهی آمریکا و نیروی نیابتی آن یعنی رژیم صهیونیستی فرو افتاده و طی حدود ۸۰ سال قبل در ادامه نگاههای تفتیش گرایانه، در فلسطین، عراق، سوریه، یمن و دیگر کشورهای اسلامی شاهد ترور گسترده اندیشمندان و فرزانگان بوده ایم. سالاری ضمن اشاره به حوادث خردادماه گذشته اضافه کرد: آخرین و شنیع ترین جلوه این روند، حمله و کشتار شماری از فرزانگان ایرانی بود که به گفته ی ایشان، در نیمه شب و در کنار خانواده هایشان هدف قرار گرفتند. همینطور زیرساخت های علمی و پژوهشی ملت ها هم مورد حمله قرار گرفته است. عضو هیات اجرائی همایش با به کار بردن اصطلاح «خردکشی» یا «سوفیساید» برای این اقدامات، اشاره کرد: این جنایات به امری عادی و حتی مشروع در نظم بین المللی موجود تبدیل گشته و نهادهای برآمده از این نظم هم واکنش مؤثری نسبت به آن نشان نداده اند. به گفته ی ایشان، در مهرماه گذشته و به همت جمعی از دانشگاهیان و فرهیختگان، همایشی با عنوان «خیزش فرزانگان ضد خردکشی» انجام شد که هدف آن، تقدیر یاد دانشمندان جان باخته و طراحی نظمی علمی و فناورانه مبتنی بر خردورزی و اخلاق انسانی بود. سالاری افزود: شرکت کنندگان در این همایش، ترور دانشمندان را اقدامی ناشی از هراس از پیشرفت ملت های بیدار دانستند که با سوءاستفاده از مهم ترین موفقیتهای علمی بشر، همچون هوش مصنوعی، فناوری های هوافضا و ارتباطات به انجام می رسد. آنان همینطور تاکید کردند که کشتار دانشمندان، علاوه بر چپاول منابع کنونی ملت ها، با هدف مصادره آینده آنان صورت می گیرد. وی با اعلان اینکه این نتیجه گیری مسئولیتی سنگین بر دوش جامعه علمی جهان می گذارد، اظهار داشت: دانشمندان باید ضمن محکومیت صریح این روند، برای ممانعت از حاکمیت نگاههای قدرت طلبانه در مراکز علمی و جایگزینی اخلاق انسانی بجای سلطه جویی تلاش کنند. سالاری همینطور به وضعیت برخی مناطق همچون غزه و دیگر کشورهای اسلامی اشاره نمود و مدعی شد: نظم استعماری و استبدادی حاکم، نه فقط حق آزادی ملت ها بلکه حق اندیشیدن و حتی حق حیات آنان را هم برنمی تابد. وی با تاکید بر لزوم هم افزایی دانشگاهیان جهان اشاره کرد: این همایش از تمامی دانشمندان آزاده دعوت می کند تا در مقابل هرگونه بهره کشی از موفقیتهای علمی برای تداوم کشتارها بایستند و برای شکل گیری به نظمی آکادمیک و فناورانه عادلانه تلاش کنند؛ نظمی که در آن علم در خدمت کرامت، پیشرفت و آزادگی همگانی باشد. عضو هیأت اجرائی همایش در انتها ضمن اشاره به برگزاری نشست تخصصی با تأکید بر هوش مصنوعی اظهار داشت: گردهمایی امروز مهلتی برای تبادل نظر درباره ی این پرسش اساسی است که چطور میتوان از تبدیل هوش مصنوعی ـ بعنوان یکی از عالی ترین موفقیتهای خرد انسانی ـ به ابزاری ضد خود دانشمندان جلوگیری کرد. همینطور بررسی سوءاستفاده از داده های ملت ها برای آموزش این فناوری و راه های رویارویی با آن، از دیگر محورهای مورد توجه این نشست است.
هوش مصنوعی همزمان فرصت قدرت ساز و تهدید خرد انسانی است
جلال دهقانی فیروزآبادی، دبیر شورای راهبردی امور خارجه، در نشست تخصصی «هوش مصنوعی و خردکشی» با تاکید بر مسئولیت علم و عالمان در عصر تکنولوژی های جدید اظهار داشت: علمِ رها از اخلاق و مسئولیت می تواند خود به ابزاری برای کشتار تبدیل گردد. وی در آغاز سخنان خود ضمن اشاره به مفهوم «خرد» عنوان کرد: خرد را میتوان هم به معنای علم و هم به معنای خردمندان درنظر گرفت؛ در خیلی از موارد، هر دو هدف قرار می گیرند؛ هم انسان ها و هم عالمان. دهقانی فیروزآبادی ضمن اشاره به یکی از پیش فرض های عصر مدرن اضافه کرد: از عصر روشنگری این تصور وجود داشت که هرچه علم پیشرفت کند، امنیت انسان بیشتر می شود؛ اما تجربه تاریخی نشان داد علمِ عاری از اخلاق و مسئولیت نه فقط امنیت آفرین نیست، بلکه می تواند به ابزار تهدید تبدیل گردد. ازاین رو هم علم مسئول است و هم عالمان.
سوءاستفاده تاریخی از علم
دبیر شورای راهبردی امور خارجه با مرور نمونه هایی از تاریخ معاصر اشاره کرد: خیلی از دانشمندان برای رفاه و آسایش بشر علم تولید کردند، اما دیگران از آن سوءاستفاده کردند؛ از علوم هسته ای که به بمب اتم انجامید تا دانش بیوشیمی که به سلاح های شیمیایی و بیولوژیک و حتی فناوری های ژنتیکی تسلیحاتی منجر گردید. علم به همان اندازه که می تواند رفاه و توسعه به وجود بیاورد، می تواند خطرناک باشد. وی تصریح کرد که حتی در غرب هم اولین حرکت های اعتراضی ضد تسلیحاتی شدن علم، از طرف خود دانشمندان شکل گرفت؛ همچون ابتکاراتی که به کنفرانس های پاکواش و بعدها به تشکیل معاهدات محدودکننده سلاح های هسته ای انجامید.
ژئوپلیتیک هوش مصنوعی و قدرت داده بنیاد
دهقانی فیروزآبادی با تاکید بر اهمیت راهبردی هوش مصنوعی اظهار داشت: هوش مصنوعی یکی از مهم ترین موفقیتهای بشر است که می تواند در خدمت امنیت و تعالی انسان باشد؛ اما همزمان خود به عنصر قدرت ملی تبدیل گشته است. امروز از ژئوپلیتیک هوش مصنوعی سخن گفته می شود؛ یعنی رقابت قدرت های بزرگ برای تولید، توزیع و کنترل داده. وی ادامه داد: نظام بین الملل آینده بر پایه قدرت داده بنیاد شکل خواهد گرفت و برخی اعتقاد دارند داده در قرن بیست ویکم همان نقشی را ایفا می کند که نفت در قرن بیستم داشت. همینطور هوش مصنوعی را باید بخشی از سومین انقلاب صنعتی ـ نظامی دانست. به قول او، خطر هوش مصنوعی در بعضی ابعاد حتی از تسلیحات هسته ای هم بیشتر است، چونکه امکان هدف گیری دقیق و ترورهای نقطه ای را فراهم می آورد و رویارویی با آن هم دشوارتر است.
چالش های هوش مصنوعی برای خرد انسانی
دبیر شورای راهبردی امور خارجه در ادامه سلطه فناوری و داده بر انسان در سطح فردی و جمعی، تضعیف عاملیت، اراده و قدرت تصمیم گیری انسان، کاهش قدرت معناسازی، تفکر نقاد و خلاقیت انسانی تقویت عقلانیت صرفا ابزاری مبتنی بر محاسبه هزینه ـ فایده، امکان هک شناختی و دستکاری افکار عمومی و خلق «فراواقعیت» و تضعیف روابط انسانی را برخی صدمه های هوش مصنوعی دانست و اخطار داد: اگر انسان را موجودی ناطق و عاقل بدانیم، هر روندی که به تضعیف عقلانیت بینجامد، نوعی زوال خرد انسانی خواهد بود.
خطر آپارتاید علمی و تسلیحاتی شدن هوش مصنوعی
دهقانی فیروزآبادی ضمن اشاره به احتمال ایجاد انحصار در حوزه هوش مصنوعی اظهار داشت: همان گونه که در حوزه هسته ای شاهد تشکیل رژیم های محدودکننده و تبعیض آمیز بودیم، ممکنست در حوزه هوش مصنوعی هم نوعی آپارتاید علمی و رژیم های تحمیلی قدرت محور شکل گیرد. وی تسلیحاتی شدن هوش مصنوعی، تولید سلاح های خودمختار و استفاده از این فنآوری در جنگ های خودکار را از مهم ترین تهدیدها برشمرد و اضافه کرد: خودکار سازی جنگ و به کارگیری هوش مصنوعی برای ترور، همچون مخاطرات جدی است که باید مورد توجه جامعه علمی قرار گیرد. دبیر شورای راهبردی امور خارجه با تاکید بر نقش پیشگام جامعه دانشگاهی اظهار داشت: قانونمندکردن استفاده ایمن از هوش مصنوعی ضروریست، اما این قوانین باید به شکل دموکراتیک و با مشارکت همه کشورها تدوین شود، نه در چارچوب رژیم های تحمیلی. وی پیشنهاد نمود علاوه بر سازوکارهای رسمی بین المللی، تشکل های علمی و دانشگاهیِ فراملی هم برای رویارویی با سوءاستفاده و تروریسم مبتنی بر هوش مصنوعی شکل گیرند؛ الگویی مشابه جنبش های علمی ضدتسلیحاتی در دهه های گذشته. دهقانی فیروزآبادی در انتها تاکید کرد: ممنوعیت تروریسم هوش مصنوعی، منع به کارگیری آن ضد غیرنظامیان و مراکز علمی، و رویارویی با تبعیض و آپارتاید علمی باید در دستور کار جامعه علمی جهان قرار گیرد. بالاترین سطح خشونت ضد علم، حذف فیزیکی دانشمند است و این مسئولیت دانشمندان را برای صیانت از علم و اخلاق دوچندان می کند.
آینده نظم جهانی در رقابت داده ها و الگوریتم ها رقم می خورد
حامد خسروانی، کارشناس و متخصص فناوری و هوش مصنوعی، در همایش «هوش مصنوعی و خردکشی» با تاکید بر لزوم مواجهه عمیق و فلسفی با پدیده های نوظهور اظهار داشت: برای فهم درست هوش مصنوعی باید آنرا از چهار منظر هستی شناسی، معرفت شناسی، انسان شناسی و فرجام شناسی مورد بررسی قرار داد. وی با اعلان اینکه هر پدیده نوینی در زمینه سیاست نیازمند شناخت دقیق ابعاد وجودی خود است، عنوان کرد: قبل از آن که بپرسیم چه چیزی می توانیم بسازیم، باید بپرسیم مقرر است در چه جهانی بسازیم و جایگاه انسان و ماشین در آن جهان چیست. خسروانی در تبیین بُعد معرفت شناختی هوش مصنوعی اضافه کرد: مسائلی مانند قصد، ادراک و ریشه مندی معنا مطرح می شود. آیا سامانه های هوش مصنوعی واقعا درکی از جهان دارند یا صرفا بر اساس الگوهای آماری خروجی تولید می کنند؟ وقتی یک سیستم می گوید این رنگ قرمز است، آیا تجربه ای از سرخی دارد یا فقط یک توکن پردازشی را بازتولید می کند؟ تفاوت میان معرفت انسانی و پردازش ماشینی دقیقاً در همین نقطه آشکار می شود. وی ضمن اشاره به بحث «کوالیا» اشاره کرد: تجربه پدیدارشناختی درد یا آگاهی انسانی قابل تقلیل به محاسبه صرف نیست و اینجا باید مرز میان ذهن انسانی و ماشین را به درستی بشناسیم. این متخصص فناوری در بخش انسان شناسی سخنان خود تاکید کرد: مساله این نیست که هوش مصنوعی جای انسان را می گیرد یا نه؛ بلکه باید تعریف خود از انسان را بازبینی نماییم. انسان صرفا یک ماشین محاسباتی نیست و دارای ساحت های مختلف معرفتی و معنوی است. حتی پیشرفته ترین سامانه های هوش مصنوعی تنها بخش محدودی از توان ذهنی انسان را پوشش می دهند. وی در ادامه، ضمن اشاره به پروژه مدرنیته در ریاضی سازی جهان، اشاره کرد: هوش مصنوعی این پروژه را به سطح بالاتری رسانده است؛ اما پرسش اساسی اینست که آیا سیاستِ مبتنی بر بهینه سازی عددی و مدیریت داده ها می تواند همچنان فضیلت، معنا و سعادت انسانی را محقق کند؟
ظهور «لیویاتان دیجیتال» و تمرکز قدرت
خسروانی ضمن اشاره به تمرکز قدرت در زیرساخت های داده ای و شرکتهای فناور اظهار داشت: امروز با نوعی لیویاتان دیجیتال مواجه هستیم. قدرت در مراکز پردازش داده و شبکه های فناورانه متمرکز شده و پرسش اصلی اینست که چطور میتوان این قدرت را محدود و پاسخگو کرد. وی اشاره کرد: مساله ما نفی استفاده از هوش مصنوعی نیست؛ استفاده از آن ضروری می باشد. پرسش اینست که چه کسی، با چه غایتی و تحت چه محدودیتی از آن بهره می برد. اگر فناوری، فرجام سیاست را تعیین کند، امر سیاسی به مدیریت داده تقلیل می یابد؛ اما اگر سیاست، جهت فناوری را تعیین کند، هوش مصنوعی می تواند در خدمت آزادی، عدالت و معنا قرار گیرد. این کارشناس هوش مصنوعی ضمن اشاره به تحولات ژئوپلیتیکی اضافه کرد: جهان درحال عبور از نظم ۸۰ ساله مبتنی بر دولت ـ ملت و نهادهای کلاسیک بین المللی به نظمی شبکه ای، داده محور و فناورانه است. در این گذار، هوش مصنوعی صرفا ابزار نیست؛ بلکه موتور معماری قدرت در قرن بیست ویکم است. وی از تشکیل مفهوم «قدرت ترکیبی» سخن گفت و توضیح داد: قدرت آینده تلفیقی از سخت افزار، زیرساخت فناورانه و قدرت نرم دیجیتال خواهد بود. اسناد امنیتی قدرت های بزرگ هم نشان میدهد که هوش مصنوعی به یکی از محورهای اصلی رقابت ژئوپلیتیکی تبدیل گشته و مرزهای سایبری و حاکمیت داده ها اهمیتی بالاتر از مرزهای جغرافیایی یافته اند.
نقد سوءاستفاده امنیتی از فناوری های دیجیتال
خسروانی با انتقاد از آن چه استفاده تلفیقی از ابزارهای اطلاعاتی و دیجیتال برای هدف گیری دانشمندان ایرانی خواند، عنوان کرد: ادعاهای مربوط به آزادی اطلاعات و امنیت ارتباطات زمانی بی اعتبار می شود که همان زیرساخت ها برای شناسایی، هدف گیری و عملیات دقیق مورد سوءاستفاده قرار گیرد. وی به برخی ابزارهای جاسوسی شناخته شده در فضای رسانه ای اشاره نمود و اظهار داشت: امروز فناوری های نفوذ به شبکه های مخابراتی، جمع آوری کلان داده و تحلیل مبتنی بر یادگیری عمیق می تواند به شناسایی دقیق اهداف انسانی منجر شود. ترکیب این ابزارها با سامانه های تحلیلی، امکان ترور هدفمند را زیاد می کند.
مسئولیت جامعه علمی در بزنگاه تاریخی
خسروانی در انتها تاکید کرد: در این بزنگاه تاریخی، جامعه علمی که خود مولد دانش و فناوری است، می تواند با طراحی چارچوب های حقوقی و فناورانه جدید، از تشکیل چرخه های ناسالم قدرت پیشگیری کند. کشورها و جوامع مستقل با تجمیع ظرفیتهای علمی خود می توانند به طرف ایجاد یک چرخه امن، اخلاق مدار و عادلانه برای تولید و بهره برداری از فناوری حرکت کنند. وی اشاره کرد: هوش مصنوعی می تواند ابزار سلطه باشد یا ابزار رهایی؛ این بستگی دارد که چه نظمی آنرا هدایت کند و چه اراده ای بر آن حاکم باشد.
منبع: beedownload.ir
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب