در یک بیانیه صادر شد توسط این شرکت فاش شد که GPT-4 کاملاً قابل اعتماد نیست. طبق خودش OpenAI، GPT-4 از مشکلات استدلال رنج می برد، هنوز هم بسیار ساده لوح است و در مسائل دشوار شکست می خورد. این امر نیاز انسان را به کار با ماشین با دقت و احتیاط بیشتر تقویت می کند.
تبلیغات
با رایجتر شدن سیستمهای هوش مصنوعی، دستیابی به درجات بالایی از قابلیت اطمینان در این مداخلات به طور فزایندهای حیاتی میشود. در حال حاضر، تکمیل این محدودیت ها با تکنیک های امنیتی در زمان استقرار، مانند نظارت بر سوء استفاده ضروری است.
GPT-4 کارآمد است اما مشکلات همچنان پابرجاست
علیرغم پذیرش مشکلات سیستم داخلی، این شرکت تاکید کرد که عملکرد ابزار کارآمد است. علاوه بر این OpenAI یک سری از متخصصان را برای استفاده انتقادی از هوش مصنوعی و ارسال بازخورد برای بهبود سیستم استخدام کرد.
طبق آزمایشات داخلی، ChatGPT-4 40% بهتر از نسخه قبلی است. آ OpenAI گفت که تمایل هوش مصنوعی به پاسخگویی به دستورات حساس به محتوا را تا 82 درصد در مقایسه با GPT-3.5 کاهش داده است. در موارد فنی یا مضر برای انسان، مانند درخواست های پزشکی، آسیب رساندن به خود یا موضوعات محرمانه، این ابزار عملکرد خود را 29٪ بهبود می بخشد. به این ترتیب آنها شانس استفاده از چت را به صورت مضر کاهش دادند.