Уже було чимало різних експериментів, дослідницьких проєктів, у яких штучний інтелект (ШІ) пробували навчити моральності. І це завжди закінчувалося недобре, — каже Томаш Рожек, доктор фізичних наук, науковий журналіст і популяризатор науки.

Розмову з ним провела журналістка КАІ Анна Расінська.

— Останнім часом у медіапросторі здійнявся шум на тему штучного інтелекту і пов’язаних із ним загроз. Чому це діється саме зараз, хоча дослідження над ШІ тривають уже довгі роки? — Це випливає з факту, що ця інформація нещодавно потрапила до широкого загалу. Великі мовні моделі, такі як ChatGPT, творені вже кількадесят років. Натомість уперше в історії, в листопаді минулого року, показано результати цих трудів ширшій аудиторії. Раптом люди змогли це випробувати й побачити, що те, про що хтось говорив на наукових конференціях, або що ми бачили у фантастичних фільмах, є правдою.

Медіа б’ють на сполох, наводячи численні загрози, пов’язані з розвитком штучного інтелекту. Які з них, на Вашу думку, реальні?

— Загроз, пов’язаних із розвитком ШІ, справді дуже багато. Що більш потужним є якесь знаряддя, то більший ризик пов’язаний з його застосуванням. Кожний такий список буде суб’єктивним, із чим доведеться погодитися. Те, що я десь бачу загрозу, не означає, що хтось інший бачитиме її точно в цьому самому місці.

Для мене найбільшою загрозою є питання міжлюдських контактів. Уже сьогодні ми маємо цілі натовпи людей, переважно молодих, які з різних причин не спілкуються з іншою людиною безпосередньо. Вони зв’язуються тільки через соцмережі. Для багатьох молодих людей це єдиний спосіб комунікації з іншою людиною. Я побоююся, що вже невдовзі «по той бік слухавки» буде не людина, а машина.

Сьогодні люди, які контактують між собою, створюють зв’язки. Спілкування через соцмережі робить так, що між людьми є певний цифровий фільтр. Може, такі люди й зустрічаються інколи в реальному світі, але загалом такого спілкування їм вистачає.

Мої побоювання — що незабаром не буде вже навіть такого цифрового фільтра між живими людьми, буде тільки людина і машина. Програма, яка завжди має для нас час, завжди має хороший настрій, говоритиме нам те, що ми хочемо почути, бо від нас вчиться і дуже успішна в цьому. Це саме по собі не новина, бо ж кожна програма — наприклад, для відеострімінгу — підказує, що ще може нас зацікавити. На підставі зробленого раніше вибору вона вчиться, чого бажає її користувач, і пропонує подібний контент. Навіть програма для прослуховування музики пропонує твори, які «також можуть вам сподобатися». Звідки вони це знають? Бо навчилися від нас!

Так працює вже багато що довкола нас. Що буде, коли ми поєднаємо мовну модель, таку як Chat GPT, з цим умінням вчитися від нас? Мої побоювання — що вже за мить чимала частина з нас не спілкуватиметься з іншими людьми. А дивлячись історично, то мені здається, що ніщо людину такою мірою не визначає і не розвиває, як, власне, контактування, конфронтація з іншою людиною. Я побоююся моменту, коли цього забракне.

Також мене непокоять моменти, пов’язані з авторськими правами. Мовні моделі крадуть контент і не лінкують джерел, не відсилають на сайти. Вони прочісують сайти, беруть потрібне і видають як своє. В цьому контексту потрібно заново перевизначити систему освіти, питання безпеки, приватності — це величезні виклики. Невідомо, які дані і як саме використовуються.

Деякі науковці вважають, що прискорена революція ШІ приведе до моменту, коли ми як люди не будемо потрібні. Ви бачите можливість такого сценарію?

— Не поділяю таких чорних перспектив. Натомість залишаю простір для того, що у дуже далекому майбутньому таке може статися. У передбачуваному майбутньому можливість такого сценарію майже нульова.

Я не поділяю аргументу, що невдовзі люди стануть непотрібними. Що це мало би означати на практиці? Чи коли хтось не працює, то він непотрібний? Не визначаймо людину тільки через працю, яку вона виконує. Людина на землі не виключно для того, щоб працювати, і в момент, коли вже не може працювати, раптово стає непотрібною.

Однак реальною проблемою буде факт, що через розвиток технологій багато професій і виробництв зникнуть.

— Вочевидь, ця технологія, цей комплекс технологій, викосить чималу частину заводів. Наскільки велику? — цього не знаю. Є різні припущення щодо цього, але деякі роботи справді будуть виконувані алгоритмами.

Натомість безсумнівно виникнуть інші професії. Може, ці зміни мобілізують нас до того, щоб, наприклад, більше творити… Навіть якби виявилося, що нових професій не виникне, то, може, ми в майбутньому будемо просто інакше функціонувати — наприклад, без роботи з рання до смеркання… Може, ці зміни пнуть нас до створення нового робочого законодавства, в якому робочий тиждень триватиме 4 дні, а не 5.

Мені дуже складно сьогодні про це думати і прогнозувати, бо ми торкаємося доволі абстрактних питань. Ми говоримо про майбутнє, яке може настати, а може не настати; це далеке майбутнє, яке складно передбачити.

— Наступна, цілком актуальна проблема, це питання моральності ШІ. Ви часто говорите про це на своїх лекціях. У багатьох людей є проблема з розрізненням, що добре і що погане. Як це знання переказати алгоритмові?

— Ось це фактично велика проблема. Передусім, тяжко сказати, що таке ця моральність, чим вона є. Ми неспроможні дати визначення цьому поняттю! Було багато проєктів, досліджень на цю тему, вона зовсім не нова. Чимало науковців працюють над цією проблемою. Якщо алгоритми в майбутньому мають доходити ключових рішень — то як їх навчити відрізняти добро від зла? Що робити, щоб штучний інтелект приходив до добрих рішень?

По-перше: немає чогось такого, як універсально добре рішення. Це видно на прикладі електромобілів. Уявімо, що хтось вискакує перед бампером автомобіля: що має зробити алгоритм? Хороше рішення для того, хто всередині, — це погане рішення для того, хто зовні. Не входячи в питання моральності, об’єктивного добра і зла: якщо ми говоримо про наші щоденні рішення, то дуже часто вони саме такі. Те саме рішення для однієї ситуації добре, а для другої зле. Ми щодня робимо сотні різних рішень. Одні кращі, другі гірші. Натомість нема ідеї, як навчити алгоритм діяти згідно з тією логікою, якою керується людина. Поки що нема думки, як це зробити, це величезний виклик. Було чимало різноманітних мисленнєвих експериментів і дослідницьких проєктів, у яких пробували навчити машину моральності,— і це завжди виходило погано. Це один із тих моментів, який необхідно добряче переосмислити.

Ще залишається питання того, хто міг би взятися за таке складне завдання. Експерти в яких галузях?…

— Я й гадки не маю! Натомість знаю, що проводилися експерименти, в межах яких пробували створити щось на кшталт універсальної моральності, чогось, що можна було би перевести в алгоритм. Раніше чи пізніше це закінчувалося в тій самій точці: що моральність необхідно визначити статистично — але ж це не так, що більшість завжди має рацію! Питання добра і зла не випливає зі статистичних підрахунків.

В одній з Ваших публікацій з’являється тема застосування ШІ в медицині майбутнього, зокрема в дослідженнях над новими антибіотиками. Ви могли б детальніше про це розповісти?

— Величезна проблема сучасного світу — поява щораз більшої кількості бактерій, стійких до антибіотиків. Бактерії набувають цю стійкість швидше, ніж ми спроможні знайти ліки, бо винайдення нових антибіотиків — це тривалий і дуже дорогий процес.

Натомість створення алгоритму, який міг би працювати на підставі досліджень фармацевтів, що наймаються пошуками дієвих антибіотиків, було доброю думкою. Така програма могла перешукати величезні бази наукових даних, знаходячи хімічні часточки, які можуть бути антибіотиками. І справді, перші такі експерименти показали, що буквально за два-три дні алгоритм може перешукати і віртуально відтестувати кілька мільйонів хімічних сполук, і виловити з них ті, що можуть бути дієвими антибіотиками. Технологія штучного інтелекту може бути величезною допомогою для науковців при аналізі великих баз даних. На цьому прикладі видно, що плюсів так само багато, як і потенційних загроз.  


Джерело