დიდი ბრიტანეთის პარლამენტის ასზე მეტი წევრი მთავრობისგან მოითხოვს ყველაზე ძლიერი ხელოვნური ინტელექტის სისტემებზე სავალდებულო რეგულაციების შემოღებას. მათი თქმით, იზრდება შეშფოთება, რომ მინისტრები უსაფრთხოების მექანიზმების შექმნაში ძალიან ნელა მოქმედებენ, ტექნოლოგიური ინდუსტრიის ძლიერი ლობირების ფონზე.
ვესტმინსტერის დეპუტატების, ლორდების და შოტლანდიის, უელსისა და ჩრდილოეთ ირლანდიის არჩეული წარმომადგენლების შორის შემდგარი მრავალპარტიული ჯგუფი — რომელშიც შედიან ყოფილი AI მინისტრი და ყოფილი თავდაცვის მდივანიც — მოითხოვს ე.წ. „ფრონტირის“ სისტემებზე მკაცრ კონტროლს. მათი განცხადებით, სუპერინტელექტური AI „ეროვნულ და გლობალურ უსაფრთხოებას საფრთხეს შეუქმნის“.
მკაცრი რეგულაციების მხარდამჭერ კამპანიას კოორდინაციას უწევს არაკომერციული ორგანიზაცია Control AI, რომლის მხარდამჭერებს შორის არის Skype-ის თანადამფუძნებელი იაან ტალინიც. ორგანიზაცია კირ სტარმერს მოუწოდებს, აჩვენოს დამოუკიდებლობა დონალდ ტრამპის თეთრი სახლისგან, რომელიც AI-ის რეგულაციას ეწინააღმდეგება. ტექნოლოგიის ერთ-ერთმა „მამამთავარმა“, იოშუა ბენჯიომ, ცოტა ხნის წინ განაცხადა, რომ AI უფრო ნაკლებად რეგულირდება, ვიდრე სენდვიჩი.
კამპანიის მხარდამჭერებს შორის არის ლეიბორისტი ლორდი და ყოფილი თავდაცვის მდივანი დეს ბრაუნი, რომლის თქმითაც სუპერინტელექტური AI „ყველაზე საშიში ტექნოლოგიური განვითარება იქნება მას შემდეგ, რაც კაცობრიობამ ბირთვული ომის წარმოების უნარი შეიძინა“. მისი განცხადებით, მხოლოდ საერთაშორისო თანამშრომლობას შეუძლია „უპირატესობისთვის დაუფიქრებელი შეჯიბრის“ თავიდან აცილება, რომელიც ყველას საფრთხეში ჩააგდებს.
კონსერვატორი ლორდი და ყოფილი გარემოს დაცვის მინისტრი ზაკ გოლდსმიტი ამბობს, რომ „მაშინაც კი, როდესაც AI-ის სფეროში ძალიან გავლენიანი და მაღალი რანგის ფიგურები განგაშს ტეხენ, მთავრობები მნიშვნელოვნად ჩამორჩებიან AI კომპანიებს და ფაქტობრივად მათ ხელში ტოვებენ განვითარებას თითქმის ყოველგვარი რეგულაციის გარეშე“.
ბრიტანეთმა 2023 წელს ბლეჩლი პარკში უმასპინძლა AI-ის უსაფრთხოების სამიტს, რომელმაც დაასკვნა, რომ ყველაზე მოწინავე AI სისტემებს „შეიძლება სერიოზული, კატასტროფული ზიანის მოტანა, განზრახ თუ უნებლიედ“. სამიტის შედეგად შეიქმნა AI-ის უსაფრთხოების ინსტიტუტი, რომელიც ახლა AI-ის უსაფრთხოების ინსტიტუტის სახელით არის ცნობილი და საერთაშორისო დონეზე დიდი ავტორიტეტით სარგებლობს. თუმცა, ნაკლები ყურადღება დაეთმო სამიტის მოწოდებას რისკების შემცირების მიზნით საერთაშორისო თანამშრომლობის გაძლიერებაზე.
გოლდსმიტის თქმით, დიდმა ბრიტანეთმა უნდა „აღადგინოს გლობალური ლიდერობა AI-ის უსაფრთხოების საკითხებში და მხარი დაუჭიროს საერთაშორისო შეთანხმებას, რომელიც სუპერინტელექტის განვითარებას აკრძალავს მანამდე, სანამ არ გავიგებთ, რასთან გვაქვს საქმე და როგორ შეიძლება მისი კონტროლი“.
AI-ის სფეროში სახელმწიფოს ჩარევის მოთხოვნები გაძლიერდა მას შემდეგ, რაც სილიკონ ველის ერთ-ერთმა წამყვანმა მეცნიერმა Guardian-ს განუცხადა, რომ კაცობრიობას 2030 წლამდე მოუწევს გადაწყვიტოს, აიღოს თუ არა „საბოლოო რისკი“ და მისცეს AI სისტემებს შესაძლებლობა თავად განავითარონ საკუთარი ძალა. Anthropic-ის თანადამფუძნებელმა და მთავარმა მეცნიერმა ჯარედ კაპლანმა თქვა:
„არ გვინდა, ეს ‘სპუტნიკის’ მსგავსი სიტუაცია იყოს, როცა მთავრობა უეცრად გამოფხიზლდება და იტყვის: ‘უი, AI მართლაც დიდი საქმეა’.“
ლეიბორისტული პარტიის პროგრამაში, რომელიც 2024 წლის ივლისში გამოქვეყნდა, აღნიშნული იყო, რომ ხელისუფლება იმუშავებდა კანონმდებლობაზე, რომელიც „მოთხოვნებს დაუწესებს ყველაზე ძლიერი ხელოვნური ინტელექტის მოდელების შემქმნელებს“. თუმცა, დღემდე არცერთი კანონპროექტი არ გამოქვეყნებულა, ხოლო მთავრობა თეთრი სახლის მხრიდან ზეწოლას განიცდის, რომ არ შეიზღუდოს კომერციული AI-ის განვითარება, რომელიც ძირითადად აშშ-ის კომპანიების მიერ არის ინიცირებული.
მეცნიერების, ინოვაციისა და ტექნოლოგიის დეპარტამენტის წარმომადგენელმა განაცხადა:
„AI უკვე რეგულირდება დიდ ბრიტანეთში — არსებობს რიგი მოქმედი წესები. ჩვენ მკაფიოდ განვაცხადეთ, რომ საჭიროა, ქვეყანა და მისი კანონები მზად იყვნენ იმ გამოწვევებისა და შესაძლებლობებისთვის, რაც AI-ს მოაქვს, და ეს პოზიცია არ შეცვლილა“.
ოქსფორდის ეპისკოპოსმა სტივენ კროფტმა, რომელიც Control AI-ის კამპანიას უჭერს მხარს, მოითხოვა დამოუკიდებელი AI ზედამხედველის შექმნა, რომელიც საჯარო სექტორში AI-ის გამოყენებას გააკონტროლებს, და ასევე ის, რომ AI კომპანიებს დაეკისროთ მინიმალური ტესტირების სტანდარტების შესრულება ახალი მოდელების გამოშვებამდე
„რისკები ძალიან მრავალფეროვანია და მთავრობამ, როგორც ჩანს, პრევენციული პრინციპი არ აითვისა,“ — თქვა მან. „დღეს სერიოზული საფრთხეები არსებობს: ბავშვებისა და მოზრდილების ფსიქიკური ჯანმრთელობა, გარემოზე ზემოქმედება და სხვა დიდი რისკები, რომლებიც უკავშირდება გენერალიზებული AI-ის შესაბამისობასა და იმას, თუ რა არის კარგი კაცობრიობისთვის. მთავრობა, როგორც ჩანს, რეგულაციებისგან შორდება.“
წყარო: www.theguardian.com
