به گفته محققان، هکرها میتوانند محدودیتهای API ChatGPT را دور بزنند و برای تولید محتوای مخرب از آن استفاده کنند.
بهنظر میرسد محدودیتهای اولیه OpenAI برای ChatGPT که با هدف جلوگیری از سوءاستفاده از این ابزار برای اهداف مخرب طراحی شده، چندان موفق نبوده، زیرا کلاهبرداران راهی برای دور زدن آنها پیدا کردهاند. در گزارش جدیدی ادعا شده که حتی پس از اعمال محدودیتها، کلاهبرداران موفق شدهاند تا از این چتبات برای بهبود کد یک بدافزار سرقت اطلاعات استفاده کنند.
ChatGPT چتبات ساخته شده توسط OpenAI است که به دلیل سبک مکالمه و شاهکارهای خلاقانه خود، مورد توجه بسیار زیادی قرار گرفته است. مایکروسافت در حال حاضر آن را به مرورگر وب اج و موتور جستجوی بینگ خود اضافه کرده است که این موضوع میتواند در نحوه استفاده مردم از اینترنت یک حرکت انقلابی باشد.
هشدار محققان درباره ChatGPT
در حال حاضر، دو راه برای استفاده از ChatGPT وجود دارد: از طریق رابط کاربری وب یا از طریق رابطهای برنامهنویسی برنامه (API) که برای ساخت برنامهها استفاده میشود. از طریق API، توسعهدهندگان میتوانند از مدلهای OpenAI در رابط کاربری خود استفاده کنند.
محققان میگویند در حالی که OpenAI محدودیتهای محکمی برای کاربران رابط وب خود ایجاد کرده (به عنوان مثال، دیگر نمیتوان از این ابزار برای نوشتن ایمیل فیشینگ جعل هویت یک بانک یا یک موسسه مالی کمک گرفت)، محدودیتهایی در هنگام استفاده از API آن وجود ندارد.
آنها در این رابطه توضیح میدهند:
«نسخه فعلی API OpenAI توسط برنامههای خارجی استفاده میشود و معیارهای ضد سوءاستفاده بسیار کمی دارد. در نتیجه امکان ایجاد محتوای مخرب، مانند ایمیلهای فیشینگ و کدهای بدافزار را به کاربران ارائه میکند.»
محققان همچنین هشدار دادهاند که در انجمنهای زیرزمینی اینترنت بحثهای زیادی درباره این موضوع انجام میشود که نشان میدهد مجرمان سایبری زیادی از دور زدن محدودیتهای ChatGPT آگاه هستند.
در همین رابطه، اخیراً نظرسنجی جدیدی که توسط شرکت بلکبری انجام شده بود، نشان داد که اکثر کارشناسان حوزه IT باور دارند کمتر از یک سال با اولین حمله سایبری از سوی ChatGPT فاصله داریم و این چتبات هوش مصنوعی با وجود تمام کارهای مفیدی که انجام میدهد، میتواند برای امنیت سیستمها تهدیدآفرین باشد.