دو لبه اخلاق هوش مصنوعی: مواجهه با تکنوفوبیا و تکنوفیلیا

دو لبه اخلاق هوش مصنوعی: مواجهه با تکنوفوبیا و تکنوفیلیا

با گسترش بی‌وقفه سیستم‌های هوش مصنوعی و نقش آرام آرام آن‌ها در حوزه‌های گوناگون زندگی، بحث‌های اخلاقی پیرامون این فناوری ابعاد تازه‌ای به خود می‌گیرند. در پژوهش اخیر، کتاب «اخلاق هوش مصنوعی: اصول، چالش‌ها و فرصت‌ها» نوشته لوچیا فلوریدی، فیلسوف برجسته ایتالیایی-بریتانیایی و بنیان‌گذار فلسفه اطلاعات، به عنوان چارچوبی برای فهم این مباحث مطرح شده است. ترجمه فارسی این اثر توسط علیرضا ثقه‌الاسلامی از پژوهشگاه علوم و فناوری اطلاعات ایران (ایرانداک) منتشر شده و به‌طور گسترده‌ای مورد توجه پژوهشگران و فعالان حوزه فناوری و مطالعات اجتماعی قرار گرفته است. به گزارش تیم آرشیو کامل، این کتاب با رویکردی استدلالی به تبیین مبانی فلسفی اخلاق هوش مصنوعی می‌پردازد و تأکید دارد که مسئله اخلاق در هوش مصنوعی فراتر از مباحث فنی است و به شکل گسترده‌ای با اراده‌های انسانی، حقوق اطلاعات، و مسئولیت‌پذیری اجتماعی گره می‌خورد.

در گفت‌وگوی ایبنا با ترجمه‌گر اثر و با مرور مقدمه‌های اصلی کتاب، روشن می‌شود که چرا اکنون اهمیت یافتن اخلاق در حوزه هوش مصنوعی بیش از پیش احساس می‌شود. این بحث‌ها، از یکسو به «ظرفیت عاملیت هوش مصنوعی» و خودمختاری سیستم‌های هوشمند می‌انجامد و از سوی دیگر به چالش‌های اخلاقی مرتبط با استفاده‌های دوگانه منجر می‌شود. به تعبیر نویسنده، فناوری‌های هوشمند اگرچه می‌توانند به بهبود زندگی کمک کنند، اما همواره امکان سوءاستفاده یا استفاده غیرهمسو با منافع انسانی را دارند. این واقعیت، گزاره‌ای است که در بخش‌های مختلف کتاب و تحلیل‌های مترجمان و پژوهشگران منعکس شده و به شکل یک چارچوب چهارچوبی در برابر ما قرار می‌دهد: چگونه با مسئولیت‌پذیری اخلاقی به سمت توسعه و به‌کارگیری هوش مصنوعی پیش برویم؟

به گزارش تیم آرشیو کامل، نویسنده و پژوهشگران تأکید می‌کنند که تاریخچه مباحث اخلاقی در فناوری به نیمه دوم قرن بیستم بازمی‌گردد و با فراز و فرودهای فناوری‌های اطلاعاتی و محاسباتی شکل گرفته است. امروزه این مباحث با ظهور هوش مصنوعی به سطحی می‌رسد که از نظر عملی به سیاست‌گذاری، طراحی سیستم‌های هوشمند و ارزیابی تأثیرات اجتماعی و اقتصادی گره‌خورده است. در این زمینه، اسناد و چارچوب‌های بین‌المللی همچون توصیه‌نامه‌های اخلاق هوش مصنوعی یونسکو (۲۰۲۱) و رویکردهای AI4SG نقش مهمی ایفا می‌کنند و به ذی‌نفعان مختلف راهبردهای اخلاقی مشخصی ارائه می‌دهند. این رویکردها به کاربرانی که در ساخت یا استفاده از هوش مصنوعی نقش دارند، اشاره می‌کنند که اخلاق نباید صرفاً یک شعار باشد؛ بلکه باید به صورت برنامه‌ریزی‌شده، قابل ارزیابی و قابل اجرا در قالب سیاست‌ها، استانداردها و فرایندهای طراحی و توسعه ظهور یابد.

در بخش‌های بعدی، این گزارش به تبیین سه سطح مطالعاتی اخلاق هوش مصنوعی می‌پردازد: سطح شناختی که به مفهوم و ماهیت هوش مصنوعی می‌نگرد؛ سطح ارزیابی که به ارزیابی مسائل اخلاقی مربوط به توسعه و استفاده از هوش مصنوعی می‌پردازد؛ و سطح تجویزی که رهنمودهای اخلاقی را برای طراحی، توسعه و استقرار هوش مصنوعی ارائه می‌کند. هر سطح، با توجه به تجربیات جهانی و مباحث نظری، می‌تواند به سدهای عملی در مسیر بهره‌برداری عادلانه و برای خیر عمومی تبدیل شود. این تقسیم‌بندی می‌تواند به سیاست‌گذاران و نهادهای پژوهشی ایرانی و بین‌المللی کمک کند تا رویکردی منسجم و پویایی برای مدیریت فناوری‌های هوش مصنوعی بیابند و از دو سوی افراطی «تکنوفوبیا» (ترس از فناوری) و «تکنوفیلیا» (شیفتگی بی‌حد و حصر به فناوری) دور بمانند.

چارچوب‌های فلسفی اخلاق هوش مصنوعی و سه سطح مطالعاتی آن

در نگاه فلوریدی، اخلاق هوش مصنوعی بخشی از اخلاق کاربردی و اخلاق تکنولوژی است که در سه سطح اصلی بررسی می‌شود: سطح شناختی، سطح ارزیابی و سطح تجویزی. در سطح شناختی، مسأله این است که هوش مصنوعی چیست و چگونه کار می‌کند. این سطح می‌کوشد بنیان‌های مفهومی هوش مصنوعی را روشن کند تا از سردرگمی‌های فکری درباره ماهیت، قابلیت‌ها و مرزهای خودمختاری این فناوری کاسته شود. در سطح ارزیابی، مسائل اخلاقی ناشی از توسعه و بهره‌برداری از هوش مصنوعی شناسایی می‌شود؛ مسائلی همچون نقض حریم خصوصی، نظارت گسترده، سوگیری در مدل‌های تصمیم‌گیری و دستکاری آموزشی با مدل‌های زبانی بزرگ (LLMها) از جمله مواردی هستند که باید با اصول اخلاقی متناسب مانند عدم آسیب‌رسانی، خیرخواهی، عدالت، خودمختاری و توضیح‌پذیری مدیریت شوند. در سطح تجویزی، با اتکا به اصول جمع‌آوری‌شده، توصیه‌ها و رهنمودهای اخلاقی برای طراحی، توسعه و استقرار سیستم‌های هوش مصنوعی پیشنهاد می‌شود. با وجود اینکه کتاب فلوریدی عمدتاً به جنبه‌های فلسفی و مفهومی می‌پردازد و به شکل مستقیم به تجویز عملی کامل نمی‌پردازد، ارجاع‌های فراوان به اسناد بین‌المللی اخلاق هوش مصنوعی، به انسان‌ها این امکان را می‌دهد تا گام‌های اجرایی مناسب را در قالب سیاست‌ها و استانداردها بردارند.

در ادامه، کتاب به بحث «دوگانگی استفاده» اشاره می‌کند: همان‌گونه که یک چاقو می‌تواند در جراحی‌های زندگی‌بخش کمک کند یا برای صدمه‌رسانی به کار رود، فناوری‌های هوش مصنوعی نیز می‌توانند برای منافع عمومی یا آلودگی و زیان اجتماعی به کار گرفته شوند. این نکته نشان می‌دهد که مسئله تنها به فناوری بستگی ندارد، بلکه به نحوه طراحی، کنترل، استفاده و پاسخ‌گویی انسان‌ها نیز بازمی‌گردد. از این منظر، نکته کلیدی این است که طراحی، توسعه و استقرار هوش مصنوعی باید همواره با خط قرمز اخلاقی انسان‌ها — خدمت به بشریت و حفظ سلامت کرامت و امنیت جامعه — پیوستگی داشته باشد. برای این منظور، برخی اسناد بین‌المللی مانند سند «توصیه‌نامه اخلاق هوش مصنوعی» یاونسکو (۲۰۲۱) به‌عنوان الگو و منش ورزانه برای سیاست‌گذاری و اجرای پروژه‌های فناوری اطلاعات و هوش مصنوعی مطرح می‌شوند و به تعهدات متولیان این حوزه درباره خیر اجتماعی اشاره می‌کنند. این توصیه‌ها برای تمامی ذی‌نفعان—از پژوهشگران و توسعه‌دهندگان تا مدیران و کاربران—نشان می‌دهد که اخلاق هوش مصنوعی فقط یک توصیه اخلاقی نیست، بلکه چارچوبی عملی برای طراحی و ارزیابی فناوری است و باید در فرایندهای ارزیابی ریسک، توسعه و تنظیم استانداردهای فناوری نفوذ کند.

در همین راستا، رویکرد AI4SG یا هوش مصنوعی در خدمت خیر اجتماعی نیز به‌طور گسترده در سطح ملی و بین‌المللی شکل می‌گیرد. هدف این رویکردها استفاده از هوش مصنوعی برای ارتقای رفاه عمومی، بهبود سلامت، آموزش، حمل‌ونقل و سایر حوزه‌های زندگی است، به شرط اینکه منافع اجتماعی، عدالت، و حفظ حریم خصوصی به‌عنوان ارزش‌های پایه رعایت شوند. در کتابِ فلوریدی، ضمن ارجاع به این رویکردها، بر اهمیت وجود چارچوب‌های فرهنگی و اخلاقی محلی تأکید می‌شود تا حکمرانیِ فناوری در هر جامعه با (${علومِ انسانی}$، فلسفه، حقوق و علوم اجتماعی) همسو شود و از بانک‌های استانداردهای جهانی برای ایجاد تفاهم و هماهنگی بهره برداری کند.

در ارزیابی وضعیت فعلی در ایران، نگرانی‌های مربوط به حریم خصوصی، استفاده از فناوری‌های پایش و دوربین‌های هوشمند، و همچنین تأثیر مدل‌های زبان بزرگ بر آموزش و پژوهش، به‌عنوان موضوعاتی با اهمیت بالا مطرح می‌شوند. با وجود فراگیر بودن ابزارهای فناوری، ناکافی بودن توسعه زیرساخت‌های قانونی و سیاستی برای مدیریت این فناوری در برخی حوزه‌ها به چشم می‌خورد. در مقابل، کشورهای پیشرفته‌تر از فناوری‌های هوش مصنوعی برای بهبود حمل‌ونقل، خدمات بهداشتی، آموزش و امنیت به‌طور گسترده‌ای استفاده می‌کنند و در عین حال با ملاحظات اجتماعی و اخلاقی روبه‌رو هستند که منجر به ایجاد نهادهای تنظیمی و چارچوب‌های حاکمیتی می‌شود. در این چارچوب، توجه به حقوق شهروندی، حفظ حریم خصوصی و شفافیت الگوریتمی به‌عنوان اصولی بدیهی مطرح می‌شود و به‌ویژه در ایران، با توجه به ابعاد حقوقی و فرهنگی خاص، نیازمند سازواری مناسب بین توسعه فناوری و حفظ ارزش‌های جامعه است. به‌رغم اینکه برخی از نگرانی‌ها حول نفوذ فناوری‌های هوش مصنوعی در زندگی روزمره وجود دارد، رویکردهای مبتنی بر اخلاق کاربردی و مسئولیت حرفه‌ای می‌تواند مسیر امن‌تری برای پذیرش فناوری فراهم کند. به گزارش تیم آرشیو کامل، مقایسه با تجربه‌های بین‌المللی نشان می‌دهد که تصمیمات سیاستی و طراحی نهادی باید با توجه به زمینه‌های فرهنگی، حقوقی و اجتماعی هر جامعه انجام شود تا از تکرار خطاهای یکباره و کاهش هزینه‌های اجتماعی جلوگیری شود.

تحلیل نقادانه با نگاه به قوانین جمهوری اسلامی ایران

در چارچوب قوانین جمهوری اسلامی ایران و با توجه به ملاحظات اجرایی و غیرسیاسی، تحلیل حاضر بر اهمیت ایجاد یک رویکرد همسو با اخلاق هوش مصنوعی در سطح ملی تمرکز دارد. به‌ویژه، لازم است که سیاست‌گذاران و مدیران پروژه‌های فناوری به تقویت شفافیت، پاسخگویی و حسابرسی الگوریتمی اهتمام ورزند تا از سوءمصرف یا سوءِ تعبیرهای گوناگون از فناوری جلوگیری شود. ایجاد چارچوب‌های قانونی روشن برای حفظ داده‌های کاربران، تضمین حریم خصوصی در فضای دیجیتال و ایجاد سازوکارهای گارانتی برای مسئولیت‌پذیری فنی-اجتماعی، از جمله نکات کلیدی است که می‌تواند به اعتماد عمومی و پذیرش گسترده‌تر هوش مصنوعی کمک کند. همچنین باید با اصلاحاتی در فرایندهای پژوهشی و آموزشی، به به‌کارگیری مدل‌های زبانی بزرگ در حوزه‌های آموزشی و پژوهشی کمک کرد تا از موازی‌کاری‌های غیرمفید و سوءِ استفاده از داده‌ها جلوگیری شود. در نهایت، یک رویکرد مسئولانه که با هدف خیر عمومی، عدالت و حفظ کرامت انسانی طراحی و اجرا شود، می‌تواند به جلوگیری از آسیب‌های ممکن و افزایش اثرات مثبت هوش مصنوعی در بخش‌های مختلف جامعه کمک کند. این تحلیل، با رعایت چارچوب‌های قانونی و ملاحظات اجرایی غیرسیاسی و غیرامنیتی، کوشش می‌کند تا به یک گفتمان سازنده و عملی برای مدیریت فناوری هوش مصنوعی در ایران دست یابد.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا