سم آلتمن، مدیرعامل شرکت OpenAI، در کنفرانس TED2025 چشماندازی از آیندهای ترسیم کرد که در آن ایجنتهای هوش مصنوعی بهصورت مستقل در اینترنت فعالیت میکنند، به اطلاعات حساس مانند حسابهای بانکی دسترسی دارند و حتی میتوانند کنترل سیستمها را در دست بگیرند. این آینده، هرچند نویدبخش، با چالشهای امنیتی بزرگی همراه است که اعتماد کاربران را به این فناوری به آزمون میگذارد.
به گزارش WindowsCentral، گسترش سریع ابزارهای هوش مصنوعی مانند ChatGPT در سالهای اخیر، همراه با نگرانیهای فزاینده درباره امنیت و حریم خصوصی، پذیرش گسترده این فناوری را با موانعی مواجه کرده است. آلتمن در سخنرانی خود به «هوش مصنوعی عاملمحور» اشاره کرد؛ فناوریای که قادر است بهصورت خودکار و بدون دخالت انسان فعالیت کند. وی هشدار داد که اشتباهات این سیستمها میتواند پیامدهای پرهزینهای داشته باشد.
آلتمن اظهار داشت: «وقتی هوش مصنوعی به اطلاعات حساس دسترسی پیدا کند و مرتکب خطا شود، این اشتباهات ریسکهای بسیار بیشتری نسبت به گذشته خواهند داشت. مردم تنها زمانی به این فناوری اعتماد میکنند که مطمئن شوند ایجنتهای هوش مصنوعی حساب بانکیشان را خالی نمیکنند یا دادههایشان را از بین نمیبرند.»
چالشهای امنیتی در عمل: تجربه مایکروسافت
نمونهای از این چالشها در ابزار «Windows Recall» مایکروسافت دیده شد که به دلیل ثبت اطلاعات حساس، مانند جزئیات کارتهای بانکی حتی با فعال بودن فیلترهای امنیتی، انتقادهای گستردهای را برانگیخت. این موضوع نشاندهنده دشواریهای جلب اعتماد عمومی به سیستمهای هوش مصنوعی با دسترسی گسترده است.
کارشناسان معتقدند که موفقیت آینده هوش مصنوعی عاملمحور به توانایی شرکتها در ارائه تضمینهای قوی امنیتی و شفافیت در عملکرد سیستمها بستگی دارد. آلتمن تأکید کرد: «محصول خوب، محصولی ایمن است. بدون ایمنی، کاربران هرگز به این فناوری روی خوش نشان نخواهند داد.»
با وجود پتانسیلهای عظیم هوش مصنوعی در تحول صنایع و بهبود زندگی روزمره، مسیر پیشرو نیازمند مدیریت دقیق ریسکها و تقویت زیرساختهای امنیتی است. آیا شرکتها میتوانند اعتماد کاربران را جلب کنند؟ این سؤالی است که آینده این فناوری را رقم خواهد زد.

