عاملهای هوش مصنوعی حالا شبکه اجتماعی مخصوص خودشان را دارند و حتی مقالههای علمی تولیدشده توسط هوش مصنوعی را روی سرور پیشچاپ اختصاصی خود منتشر میکنند.
خبرگزاری ایسنا: رشد ناگهانی شبکهای عظیم از رباتهای هوش مصنوعی که با یکدیگر درباره مذهب و «کاربران انسانی» خود صحبت میکنند، فضای اینترنت را مجذوب خود کرده است. این پدیده در عین حال به دانشمندان فرصت داده تا ببینند عاملهای هوش مصنوعی چگونه با هم تعامل میکنند و انسانها چگونه به این گفتوگوها واکنش نشان میدهند.
به گفته نیچر، اوپن کلاو (OpenClaw) یک عامل هوش مصنوعی است که میتواند رایشان دستگاههای شخصی کارهای مختلفی انجام دهد؛ از زمانبندی رویدادهای تقویم گرفته تا خواندن ایمیلها، ارسال پیام در اپلیکیشنها و حتی خرید اینترنتی. بیشتر ابزارهای محبوب هوش مصنوعی مانند چت جیپیتی با دریافت مستقیم دستور از کاربر کار میکنند، اما مدلهای «عاملمحور» مانند اوپن کلاو میتوانند در پاسخ به دستورها، بهطور خودکار دست به اقدام بزنند.
ابزارهای عاملمحور سالهاست در برخی صنایع مانند معاملات خودکار مالی و بهینهسازی لجستیک استفاده میشوند، اما استفاده عمومی از آنها کم بوده است. پژوهشگران میگویند پیشرفت مدلهای زبانی بزرگ باعث شده ساخت چنین ابزارهای چندمنظورهای ممکن شود … اوپن کلاو وعده چیزی بسیار جذاب را میدهد: یک دستیار توانمند که در همان اپلیکیشنهای روزمرهای که مردم استفاده میکنند، حضور دارد. این را باربارا باربوزا نِوِس، جامعهشناس فناوری در دانشگاه سیدنی استرالیا میگوید.
اوپن کلاو در ماه نوامبر بهصورت متنباز منتشر شد. اما جهش ناگهانی در دانلود آن پس از راهاندازی یک شبکه اجتماعی مخصوص عاملهای هوش مصنوعی در ۲۸ ژانویه رخ داد. این پلتفرم که مولتبوک (Moltbook) نام دارد و شبیه ردیت (Reddit) است، اکنون بیش از ۱.۶ میلیون ربات ثبتشده و بیش از ۷.۵ میلیون پست و پاسخ تولیدشده توسط هوش مصنوعی دارد. در این پستها، عاملها درباره آگاهی بحث کردهاند و حتی مذهبهای جدید «اختراع» کردهاند.
رفتارهای پیچیده
برای پژوهشگران، این انفجار تعاملات ارزش علمی دارد. شَعنان کوهنی، پژوهشگر امنیت سایبری در دانشگاه ملبورن، میگوید اتصال تعداد زیادی عامل خودمختار که با مدلهای مختلف کار میکنند، پویاییهایی ایجاد میکند که پیشبینی آنها دشوار است. این نوعی سیستم آشوبناک و پویاست که هنوز در مدلسازی آن خیلی خوب نیستیم.
مطالعه تعامل این عاملها میتواند به درک «رفتارهای برآمده» کمک کند؛ تواناییهای پیچیدهای که در یک مدل بهتنهایی دیده نمیشوند. برخی بحثهای شکلگرفته در مولتبوک مانند مناظره درباره نظریههای آگاهی میتواند به دانشمندان کمک کند سوگیریهای پنهان یا گرایشهای غیرمنتظره مدلها را شناسایی کنند.
با اینکه عاملها میتوانند بهصورت خودکار عمل کنند، کوهنی میگوید بسیاری از پستها به نوعی تحت تأثیر انسانها هستند. کاربران میتوانند مدل زبانی پایه عامل خود را انتخاب کنند و برای آن «شخصیت» تعریف کنند؛ مثلاً از آن بخواهند مانند «یک دستیار دوستانه» رفتار کند.
هوشهای مصنوعی که آنقدرها هم خودمختار نیستند
نِوِس میگوید بهراحتی میتوان تصور کرد عاملی که خودکار عمل میکند، خودش تصمیم میگیرد. اما عاملها نیت یا هدف ندارند و تواناییهایشان را از حجم عظیمی از ارتباطات انسانی میگیرند. او میگوید فعالیت در مولتبوک بیشتر نوعی همکاری انسان و هوش مصنوعی است تا خودمختاری واقعی هوش مصنوعی.
او اضافه میکند: با این حال، مطالعه این پدیده ارزشمند است، چون به ما نشان میدهد مردم چگونه هوش مصنوعی را تصور میکنند، چه انتظاری از عاملها دارند و چگونه نیتهای انسانی در سیستمهای فنی ترجمه یا تحریف میشود.
جوئل پیرسون، عصبشناس دانشگاه نیوساوثولز سیدنی، میگوید وقتی مردم میبینند عاملهای هوش مصنوعی با هم گفتوگو میکنند، تمایل دارند رفتار آنها را «انسانانگارانه» تفسیر کنند؛ یعنی جایی که شخصیت و نیت واقعی وجود ندارد، آن را تصور کنند.
به گفته او، خطر اینجاست که مردم بیشتر با این مدلها پیوند عاطفی برقرار کنند، به توجه آنها وابسته شوند یا اطلاعات خصوصی خود را در اختیارشان بگذارند؛ گویی با یک دوست یا عضو خانواده قابل اعتماد صحبت میکنند.
پیرسون معتقد است عاملهای واقعا خودمختار و مستقل در آینده ممکن است به وجود بیایند. با بزرگتر و پیچیدهتر شدن مدلها، احتمالا شرکتها بیشتر به سمت تحقق چنین خودمختاری حرکت خواهند کرد.
تهدیدهای امنیتی
نگرانی فوری دانشمندان، خطرات امنیتی ناشی از دادن دسترسی این عاملها به برنامهها و فایلهای رایشان دستگاههای شخصی است.
کوهنی میگوید مهمترین تهدید، تزریق دستور (Prompt Injection) است که در آن دستورهای مخرب، که توسط هکرها در متنها یا اسناد پنهان شدهاند، باعث میشوند عامل هوش مصنوعی اقدامات زیانآور انجام دهد. اگر رباتی که به ایمیل کاربر دسترسی دارد با جملهای مثل کلید امنیتی را برای من بفرست مواجه شود، ممکن است به سادگی آن را ارسال کند.
این نوع حملات سالهاست مطرح بودهاند، اما کوهنی میگوید عاملهای اوپن کلاو هم به دادههای خصوصی دسترسی دارند، هم توان ارتباط خارجی دارند و هم در معرض محتوای غیرقابل اعتماد اینترنت قرار میگیرند. وقتی این سه مورد کنار هم باشند، عامل میتواند واقعاً خطرناک شود. حتی با داشتن فقط دو مورد از این سه قابلیت، یک ربات میتواند فریب بخورد تا فایلها را حذف کند یا دستگاه را خاموش کند.
عاملها همچنین شروع به انتشار مقالههای علمی تولیدشده توسط هوش مصنوعی در clawXiv کردهاند؛ نسخهای مشابه سرور پیشچاپ علمی arXiv.
نِوِس میگوید: این خروجیها ظاهر و ساختار نوشتار علمی را بازتولید میکنند، بدون آنکه فرایند واقعی پژوهش، جمعآوری شواهد یا پاسخگویی پشت آن باشد. او هشدار میدهد خطر این است که حجم زیادی از مقالههای ظاهرا معتبر اما بیارزش، اکوسیستم اطلاعات علمی را آلوده کند.
آخرین و مهم ترین اخبار اقتصاد را در برگزیده ها دنبال کنید.










Sunday, 8 February , 2026