ბმულები ხელმისაწვდომობისთვის

ლინგვისტებმა ხელოვნური ინტელექტის ამოცნობა ტექსტში ვერ შეძლეს


ორი ამერიკელი მეცნიერი შეეცადა გაერკვია, თუ რამდენად შესაძლებელია აკადემიური ნაშრომის კითხვისას იმის დადგენა, ხელოვნურმა ინტელექტმა დაწერა ის, თუ ადამიანის მიერაა შექმნილი. როგორც ირკვევა, ამ ეტაპზე, ტექნოლოგიების დაუხმარებლად, გამოცდილ ლინგვისტებსაც კი უჭირთ ხელოვნური ინტელექტის მიერ მომზადებული ნაშრომის ამოცნობა. ახალი კვლევის მიხედვით, მათი დასკვნა დარიგებული ტექსტების მხოლოდ 38.9%-ში იყო სწორი.

მას შემდეგ, რაც 2022 წლის ნოემბერში ChatGPT („ჩეთ-ჯი-ფი-თი“) - ხელოვნური ინტელექტის საჯაროდ ხელმისაწვდომი გენერაციული პროგრამა - გამოვიდა, ის სენსაციად იქცა და პირველი ორი თვის განმავლობაში 100 მილიონზე მეტი მომხმარებელი შემოიკრიბა. მართალია, ბოლო დროს პროგრამის გამომწერთა ზრდის ტემპი შედარებით შენელდა, მაგრამ ChatGPT მაინც ძალზე პოპულარულია, განსაკუთრებით - სტუდენტებში და მოსწავლეებში, რომლებიც მას საშინაო დავალებების იოლად მოსამზადებლად იყენებენ. ChatGPT იძლევა პასუხებს კითხვებზე სხვადასხვა სფეროდან, ის ასწორებს გრამატიკულ შეცდომებს, წერს თემებს და ა.შ. აქედან გამომდინარე, ადამიანის მიერ შექმნილი ნამუშევრის ხელოვნური ინტელექტით მომზადებულისგან გარჩევას, აკადემიურ გარემოში თანდათან უფრო მეტი მნიშვნელობა ენიჭება. მეცნიერების და განათლების სფეროში მომუშავენი თვლიან, რომ პრობლემა კრიტიკულია და რაც შეიძლება სწრაფად უნდა გადაიჭრას.

სხვა ვინ უნდა განასხვაოს ადამიანის მიერ დაწერილი კომპიუტერულისგან, თუ არა გამოცდილმა ლინგვისტმა, ენათმეცნიერმა, ვინც ათწლეულები ენობრივი კომუნიკაციის, ენის ფუნქციონირებაში კანონზომიერებების შესწავლას დაუთმო და ამ საქმეშია გაწაფული? ამ ლოგიკით, ახალი კვლევის ავტორებმა 72 ექსპერტი შეარჩიეს, რომლებიც წამყვან სამეცნიერო ჟურნალებთან თანამშრომლობენ. მემფისის უნივერსიტეტის გამოყენებითი ლინგვისტიკის პროფესორმა ელიოტ კასალმა და სამხრეთ ფლორიდის უნივერსიტეტის პროფესორმა მეთიუ კესლერმა ექსპერტებს დაურიგეს აკადემიური ნამუშევრის აბსტრაქტები, იგივე ანოტაცია, რომელიც ნაშრომის ერთგვარ შეჯამებას წარმოადგენს.

თითოეულ ექსპერტს აბსტრაქტის 4 ნიმუში გადაეცა. მათ უნდა გაერკვიათ, ადამიანის დაწერილი იყო ის, თუ ხელოვნური ინტელექტის მიერ შექმნილი. როდესაც ექსპერიმენტი დასრულდა და მისი შედეგები შეაჯამეს, აღმოჩნდა, 72-დან ვერცერთმა ექსპერტმა ვერ გამოიცნო სწორად ოთხივე ნაშრომის ავტორი. ლინგვისტებს შორის 13-მა პროცენტმა ოთხიდან სწორად საერთოდ ვერცერთი ვერ ამოიცნო. საერთო ჯამში, ნაშრომებს შორის, ექსპერტებმა ხელოვნური ინტელექტის კვალს სწორად მხოლოდ 38.9%-ში მიაგნეს.

ამერიკელ მეცნიერთა ახალი კვლევა კიდევ უფრო თვალსაჩინოს ხდის ხელოვნური ინტელექტის მასობრივი გამოყენებით შექმნილ პრობლემებს, განსაკუთრებით - სკოლებში და უნივერსიტეტებში. ავტორები საუბრობენ ახალი ტექნოლოგიის შექმნის აუცილებლობაზეც, რომელმაც შესაძლოა უკეთ ამოიცნოს ხელოვნური ინტელექტის კვალი საშინაო დავალებებში თუ აკადემიურ ნაშრომებში.

კასალის და კესლერის ნაშრომის მიხედვით, რაც უფრო გრძელია ნამუშევარი, მით უფრო იოლდება ავტორის ამოცნობა და პირიქით. მათ კვლევაში დისკუსია ეხება სამეცნიერო ნაშრომების ეთიკურ მხარესაც.

„ვაცნობიერებთ იმას, რომ ეთიკურად არის გარკვეული „რუხი ზონები“ აკადემიაში, კვლევებში გენერაციული ხელოვნური ინტელექტის გამოყენებასთან დაკავშირებით... ჯერჯერობით არ გვაქვს კონსენსუსი. შესაბამისად, გვინდოდა საკითხის ეთიკური მხრიდან შესწავლა. მიღებულმა შედეგებმა გაგვაოცა“ - ამბობს პროფესორი კასალი მემფისის უნივერსიტეტის ვებგვერდზე გამოქვეყნებულ სტატიაში. მისი თქმით, ამ ახალ კვლევას ხელოვნურ ინტელექტთან დაკავშირებული სხვა სამეცნიერო ნაშრომებისგან სწორედ ადამიანური შეფასებების, სიზუსტის და კვლევის ეთიკის კუთხით შესწავლა გამოარჩევს.

ახალი სამეცნიერო კვლევის სახელია: „შეუძლიათ თუ არა ლინგვისტებს განასხვავონ ChatGPT-ის/ხელოვნური ინტელექტის და ადამიანის მიერ დაწერილი“. ის ცოტა ხნის წინ გამოქვეყნდა ჟურნალში „გამოყენებითი ლინგვისტიკის კვლევის მეთოდები“ (Research Methods in Applied Linguistics).

Facebook Forum

XS
SM
MD
LG