هوش مصنوعی و توازن قدرت در عصر دادهها
در دهههای اخیر، مطالعات گستردهای نشان دادهاند که هوش مصنوعی به عنوان موتور پردازش دادههای عظیم میتواند دو مسیر متضاد را برای ساختارهای حاکمیتی رقم بزند: از یکسو کارآیی اجرایی و توان نظارتی را افزایش میدهد و از سوی دیگر با تمرکز داده و تصمیمگیری در دست یک یا چند نهاد، امکان تمرکز قدرت را تقویت میکند. این مسئله به زبان پژوهشگران با دو روایت اصلی توضیح داده میشود: یک روایت میگوید که فناوری یادگیری ماشین و ابزارهای تحلیل داده، به ویژه زمانی که در اختیار نخبگان و سازمانهای قدرتمند باشد، میتواند به تقویت اقتدارگرایی و محدودسازی فضای باز سیاسی منجر شود. روایت دیگر اما بر توانمندیهای جمعی، شفافیت و پاسخگویی در حوزه عمومی تأکید دارد و میتواند به توسعه فرآیندهای تصمیمگیری مشارکتی و پاسخگو در قالب دموکراسی کارآمد منجر شود. این کشمکش در پژوهشهای بینالمللی به وضوح مطرح است و با مرور نمونههای واقعی از مناطق دارای تضادهای فکری و سیاسی تشدید میشود. به گزارش تیم آرشیو کامل، فناوریهای نوظهور نه تنها ابزارهایی برای بهبود کارایی ادارههای دولتی بلکه منابعی برای بازتعریف مفاهیم آزادی، حریم خصوصی و حسابرسی مستقیم نهادهای حاکمیتی هستند.
نمونههای جهانی و یافتههای پژوهشی
در گزارشهای مختلف، به تفاوت قابل توجهی بین دو دسته از کشورها اشاره میشود: دستهای که از فناوریهای پیشرفته برای بهبود پاسخگویی و شفافیت استفاده میکنند و دستهای که با تمرکز دادهها و کنترل دادههای شخصی، قدرت تصمیمگیری را به مرکز متمرکز میسازند. این نکته زمانی روشنتر میشود که به یکی از پژوهشهای شاخص در زمینه نظارتهای دیجیتال نگاه میکنیم. سیستمهای هوش مصنوعی میتوانند با تحلیل بیوقفه دادههای جمعآوریشده از جمعیتها، الگوهای رفتاری را شناسایی کنند و از این طریق کارایی سیاستهای عمومی را افزایش دهند. اما همین توان تحلیلی، اگر در اختیار چند نهاد محدود باشد، میتواند به توزیع قدرت در سطحی غیرشفاف و غیرقابل پاسخگویی منجر شود. این موضوع به ویژه در مسائلی مانند حریم خصوصی، کنترل اطلاعات شخصی و امکان سوءاستفاده از دادهها حساسیت دوچندان پیدا میکند. در این راستا، برخی پژوهشگران تاکید میکنند که آینده موفقِ دموکراسیها مستلزم طراحی سازوکارهای قانونی و فناوریای است که موازنهای میان بهرهگیری از فناوری و حفظ حقوق فردی برقرار کند.
در مناطقی از جهان که سرمایهگذاریهای بزرگ در فناوریهای ناظر و دادهبری انجام شده است، برخی از تجربهها نشان دادهاند که هوش مصنوعی میتواند به بهبود مدیریت منابع عمومی و پاسخگویی شهروندان کمک کند. با این حال، این مزایا همراه با خطراتِ تمرکز داده و کاهش کنترل مردمی بر تصمیمگیریها همراه است. از منظر پژوهشگران، کلید حفظ تعادل، وجود چارچوبهای قانونی شفاف و سازوکارهای نظارتی مستقل است که بتوانند از سوءِ استفادههای احتمالی جلوگیری کنند و در عین حال به کارایی و امنیت عمومی بیافزایند. در این میان، برخی از تحلیلگران به ویژه به نقش شرکتهای فناوری بزرگ و دولتها در ایجاد الغای فاصله بین شهروندان و نهادهای حاکم اشاره میکنند و تاکید میکنند که شفافیت الگوریتمی و پاسخگویی به شهروندان، از جمله مؤلفههای ضروری برای حفظ اعتماد عمومی است.
نمونههای کنترلی و نظارتی در منطقه: اسرائیل و کرانه باختری
یکی از مطالعات موردی قابل توجه در این حوزه، بررسیهای مربوط به فناوریهای نظارتی در میدانهای امنتی منطقه است. گزارشها نشان میدهد که برخی کشورهای پیشرفته در زمینه فناوریهای نظارتی، به ویژه در مناطق پرتنش، از سیستمهای هوش مصنوعی برای تشخیص تهدیدات بالقوه و بهبود کارایی واکنشهای امنیتی استفاده کردهاند. به عنوان نمونه، در کرانه باختری اشغالی، پژوهشها اشاره میکنند که پیادهسازیهای اولیهای از سامانههای نظارتی مبتنی بر دوربینها، میکروفنها و نرمافزارهای تحلیل داده منجر به افزایش حس کنترل و امنیت شده است. در این چارچوب، تحلیلگران میگویند که الگوریتمهای هوش مصنوعی با بررسی سیگنالهای رفتاری و فکری که از دادههای بزرگ به دست میآیند، میتوانند به نیروهای امنیتی کمک کنند تا تهدیدهای بالقوه را زودتر شناسایی و خنثی کنند. با وجود این، این نگرش نیز با پرسشهای گستردهای درباره حقوق شهروندی و حریم خصوصی همراه است.
در یک روایت دیگر، نمونههای تاریخی نشان میدهند که سیستمهای دیجیتال، با وجود کارآییهای فنی، میتواند به محدودیتهای سیاسی و اجتماعی منجر شوند. یکی از موارد مطرحشده در مطالعات میدانی، تجربهای است که در سالهای اخیر با افراطیسازی یا نقض حقوق شهروندان برای حفظ امنیت ملی در برخی مناطق دیده میشود. یکی از جنبههای مهم این بحث، مسئله دسترسی به دادهها و کنترل بر دادههای بیومتریک است که میتواند به سوءِ استفاده یا نقض حقوق بشر منجر شود. به گزارش پژوهشگران، وضعیت موجود نشان میدهد که صرفاً داشتن فناوری پیشرفته برای امنیت، کافی نیست؛ بلکه باید با حفظ اصول عدالت، مسئولیتپذیری و حفظ حقوق پایه شهروندی همراه باشد. در این چارچوب، تشدید نظارت بر اساس دادههای بیومتریک میتواند در برخی مواقع منجر به بازتعریف مفهوم شهروندی و آزادیهای فردی شود که در نگاه بلندمدت، میتواند به پایداری یا تزلزل مشروعیت حکمرانی منجر گردد.
فلسطینیها، فلسطین و تصویر جهانی سرعت دادهها
در بحثهای مربوط به امنیت و نظارت، تجربهها از مناطق تحت مناقشه نیز نقشی بارز در فهم اثرات هوش مصنوعی دارند. برای نمونه، برخی گزارشها از نظارت گسترده به خصوص در مناطق بررسیشده از نظر امنیتی صحبت میکنند که با استفاده از فناوریهای پیادهسازیشده در حوزههای بیومتریک، تصویربرداری، تحلیل صوتی و دادههای جمعآوریشده از محیطهای شهری، به تشخیص تهدیدهای بالقوه کمک میکند. در این سطح از تحلیل، با وجود اینکه سرعت پاسخگویی و کارایی تشخیص تهدیدها افزایش مییابد، خطر نقض حقوق شهروندی و حریم خصوصی نیز به شدت محسوس است. بنابراین، پرسش اصلی این است که آیا میتوان و باید سیستمهای هوش مصنوعی را به گونهای طراحی کرد که هم به امنیت کمک کنند و هم فضاهای آزاد اجتماعی، حق عبور از مرزهای فکری و حق مشارکت عمومی را حفظ نمایند؟ این پرسش نه تنها به سیاستهای امنیتی بلکه به مبانی حقوقی، اخلاقی و اجتماعی تبدیل میشود. همچنین به یاد میآوریم که یکی از نمونههای تاریخی مرتبط با بحث ترجمه و تفسیر دادهها، حوادثی است که در سالهای گذشته از دنیای فناوری در فضای مجازی و شبکههای اجتماعی ظاهر شد. برای مثال، در یک حادثه کوچکی که در سالهای اخیر رخ داد، ترجمه اشتباه یک نرمافزار زبانآموزی منجر به سوءتفسیر یک پست شد و عاقبت به بازداشت موقت یک کارگر از سوی نیروهای امنیتی انجامید. این اتفاق نشان میدهد که حتی خطاهای فناورانه کوچک میتوانند به پیامدهای جدی در میدان امنیتی ـ سیاسی بینجامند و بر توازن قدرت میان شهروندان و نهادهای اجرایی اثرگذار باشند. این تجربهها همچنین نشان میدهند که کاربرد هوش مصنوعی در حوزههای امنیتی نیازمند سازوکارهای دقیق، شفاف و پاسخگو است تا از سوءاستفاده و نقض حقوق انسانی جلوگیری شود. در مجموع، پیشامدهای امنیتی که با استفاده از فناوریهای پیشرفته رخ میدهند، میتوانند به تسریع تصمیمگیری و افزایش کنترل کمک کنند، اما در کنار این مزایا، خطر از دست رفتن آزادیهای فردی و کاهش نقش نهادهای مدنی نیز وجود دارد. به گزارش تیم آرشیو کامل، چنین رویدادهایی، اگر به درستی مدیریت نشوند، میتواند به تصویر ایزولهشدهای از دموکراسی منجر شود و این سوال را تقویت کند که آیا میتوان از طریق مقررات و فناوریهای مناسب، تعادل بیطرفانهای بین امنیت و آزادیهای فردی برقرار کرد یا خیر.
نگاه به آینده: فناوری چه نقشی در توسعه یا تضعیف دموکراسی ایفا میکند؟
در تحلیلهای آیندهنگر درباره نقش هوش مصنوعی در حکومتها، دو آینده قابل تصور وجود دارد. یکی از این فصول، افزایش کارایی و پاسخگویی سیستمهای دولتی در قالب جشنهای شفافیت و مشارکت مردمی است که میتواند به تقویت اعتماد عمومی و عدالت اجتماعی منجر شود. در این مسیر، فناوری بلاکچین و ابزارهای تحلیل داده میتوانند به عنوان وزنهای تعادلبخش عمل کنند. اما با وجود این مزایا، روایتی دیگر وجود دارد که به تمرکز اطلاعات و قدرت در دست نهادهای اجرایی اشاره دارد. در این سناریو، هوش مصنوعی به یک موتور تصمیمگیری متمرکز تبدیل میشود که میتواند با استفاده از دادههای جمعآوریشده از جمعیتها، به سرعت تصمیمات سخت و بعضاً غیرشفاف را اتخاذ کند. این مسیر به نوعی به معنای بازتعریف قدرت حاکمیت است: هر چه دادهها بیشتر در اختیار مرکز باشد و تصمیمگیریها با الگوریتمهای پیچیده انجام شود، احتمال تبدیل دموکراسی به نمایشِ کارآمدتری از کنترل اجتماعی افزایش مییابد. با این وجود، پژوهشگران بر این باورند که در برابر این چالش، ترکیب چارچوبهای قانونی، استانداردهای اخلاقی و نهادهای نظارتی مستقل میتواند زمینه مناسبی برای حفظ حقوق شهروندی و پاسخگویی عمومی فراهم آورد، بدون اینکه از کارایی و امنیت عمومی کاسته شود. در یک نگاه کلان، آینده هوش مصنوعی در حوزه حاکمیت دو رکن اصلی دارد: اول، ایجاد کانالهای موثر برای مشارکت اجتماعی و پاسخگویی به مردم؛ دوم، حفظ حقوق فردی و تضمین شفافیت در تصمیمگیریهای کلان. هر یک از این دو رکن باید با توجه به نیازهای سیاسی، فرهنگی و حقوقی هر کشور به گونهای طراحی و پیادهسازی شود تا منجر به پایداری مشروعیت حکومتی گردد.
جمعبندی و پژوهشهای تکمیلی
در نهایت، با توجه به پیچیدگیهای ناشی از توسعه هوش مصنوعی و بهرهگیریهای مختلف از دادهها، روشن است که هیچ پاسخ واحدی برای آینده روابط میان دموکراسی و اقتدارگرایی وجود ندارد. هر کشور باید با توجه به مقتضیات خود، ترکیبی از فناوری، قانون و نهادهای مدنی را طراحی کند که بتواند هم امنیت را تأمین کند و هم آزادیهای اساسی را حفظ نماید. در این چارچوب، تجربههای جهانی، از جمله نمونههای منطقهای که به تفصیل در این گزارش مرور شد، میتواند به عنوان درسهایی برای بهبود طراحیهای سیاستی و فناورانه عمل کند. به هر حال، نکتهای که نباید فراموش کرد این است که فناوری هوش مصنوعی هیچگاه به تنهایی نمیتواند جایگزین مسئولیت انسانی در تصمیمگیریهای کلان شود. انسانها همچنان باید نقش اصلی را در تعیین خط مشیها ایفا کنند و ابزارهای فناورانه نیز تنها به عنوان کمککننده در مسیر تصمیمگیری عمل کنند. با در نظر داشتن این نکته، میتوان در آینده از پتانسیلهای هوش مصنوعی بهره برد و در عین حال از خطرات تمرکز قدرت و محدودیت فضای آزادیهای عمومی کاست. این فرآیند، بدون پذیرش اصول اخلاقی، حریم خصوصی و حقوق شهروندی امکانپذیر نخواهد بود.
تحلیل حقوقی-اجرایی با رعایت قوانین جمهوری اسلامی ایران
با توجه به اصول قانونی و حریم خصوصی در جمهوری اسلامی ایران، هر راهبرد مبتنی بر هوش مصنوعی باید به صراحت از چارچوبهای قانونی موجود پیروی کند و هیچگاه حقوق شهروندی را نقض نکند. در این راستا، توصیه میشود که طرحهای امنیتی و فناوریمحور در سطح ملی با تضمین شفافیت، پاسخگویی و امکان بازخواست عمومی همراه باشد و از هرگونه تمرکز بیضابطه دادهها جلوگیری شود. همچنین، هر گونه استفاده از فناوریهای ناظر باید با استانداردهای اخلاقی و حقوقی همسو باشد و مکانیزمهای گزارشدهی عمومی و نهادهای مستقل با وظیفه پایش و حسابرسی ایجاد گردد تا از سوءاستفادههای احتمالی جلوگیری شود. حفظ حقوق فردی و حریم خصوصی در کنار امنیت ملی، میتواند به پایداری مشروعیت حکومتی و اعتماد مردم به تصمیمگیریهای کلان بیانجامد.
