Մի տարածված հայտարարություն ընկերության կողմից պարզվել է, որ GPT-4-ը լիովին հուսալի չէ: Ըստ իր սեփական OpenAI, GPT-4-ը տառապում է տրամաբանական խնդիրներից, դեռ շատ միամիտ է և չի կարողանում դժվարին խնդիրներ լուծել: Սա էլ ավելի է ուժեղացնում մարդկանց՝ մեքենան ուշադրությամբ և զգուշությամբ վարվելու անհրաժեշտությունը:
ՀՐԱՊԱՐԱԿԱԿԱՆՈՒԹՅՈՒՆ
«Քանի որ արհեստական ինտելեկտի համակարգերը դառնում են ավելի տարածված, այս միջամտությունների մեջ հուսալիության բարձր աստիճանի հասնելն ավելի ու ավելի կարևոր կդառնա: Առայժմ անհրաժեշտ է լրացնել այս սահմանափակումները տեղակայման ժամանակի անվտանգության տեխնիկայով, ինչպիսին է չարաշահումների մոնիտորինգը», - ասել է ընկերությունը:
GPT-4-ը արդյունավետ է, բայց խնդիրները պահպանվում են
Չնայած ներքին համակարգի խնդիրների ընդունմանը, ընկերությունը ընդգծել է, որ գործիքի աշխատանքը արդյունավետ է: Ի հավելումն OpenAI վարձել է մի շարք մասնագետների՝ AI-ը քննադատաբար օգտագործելու և համակարգի բարելավման համար հետադարձ կապ ուղարկելու համար:
Ներքին փորձարկումների համաձայն՝ ChatGPT-4-ը 40%-ով ավելի լավ է, քան վերջին տարբերակը: Ա OpenAI ասել է, որ դա նվազեցրել է AI-ի միտումը՝ արձագանքելու բովանդակության նկատմամբ զգայուն հրամաններին 82%-ով՝ համեմատած GPT-3.5-ի հետ: Տեխնիկական կամ մարդու համար վնասակար դեպքերում, ինչպիսիք են բժշկական հարցումները, ինքնավնասումը կամ գաղտնի թեմաները, գործիքը բարելավել է իր աշխատանքը 29% -ով: Այս կերպ նրանք նվազեցրին Chat-ը վնասակար եղանակով օգտագործելու հնարավորությունները։