مردیت ویتکر، رئیس بنیاد غیرانتفاعی سیگنال که پشتیبان پیامرسان ایمن سیگنال است، نسبت به خطرات جدی ابزارهای هوش مصنوعی عاملی (Agentic AI) هشدار داد. به گفته ویتکر، این دسته از هوش مصنوعی که قادرند بدون دخالت انسان تصمیمگیری کرده و فعالیتهای مختلفی انجام دهند، میتوانند تهدیدی جدی برای حریم خصوصی کاربران به شمار روند.
بر اساس گزارش بیزینس اینسایدر، در حالی که شرکتهای بزرگ فناوری تا سال ۲۰۲۵ حدود ۳۰۰ میلیارد دلار در توسعه فناوری هوش مصنوعی سرمایهگذاری خواهند کرد، ویتکر که در رویداد SXSW 2025 در تگزاس سخن میگفت، تأکید کرد این هوش مصنوعیها برای فعالیت به دسترسی گستردهای به اطلاعات کاربران نیاز دارند و همین امر موجب نگرانی جدی در خصوص حریم خصوصی میشود.
وی افزود: «عاملهای هوش مصنوعی مانند غول چراغ جادو معرفی میشوند که میتوانند چند گام جلوتر را ببینند و تمام امور روزمره کاربران را بدون هیچگونه تلاشی از سوی آنان انجام دهند. این سطح از خودمختاری به معنای دسترسی وسیع به دادههایی است که افراد معمولاً تمایل دارند خصوصی باقی بماند.»
ویتکر همچنین به این نکته اشاره کرد که ابزارهای هوش مصنوعی عاملی میتوانند کارهایی همچون یافتن کنسرتها، رزرو بلیت و حتی باز کردن اپلیکیشنهایی نظیر سیگنال برای ارسال پیام به دوستان را انجام دهند؛ اما هشدار داد که در هر یک از این مراحل، این ابزارها به اطلاعات حساس و شخصی کاربران دسترسی پیدا میکنند.
به گفته او، فرایند پردازش این دادهها معمولاً بر روی سرورهای ابری انجام میشود که همین امر میتواند حریم خصوصی افراد را به شدت تحت تأثیر قرار دهد و خطرات امنیتی و نقض حریم خصوصی را افزایش دهد.

