Засновник новаторських високотехнологічних компаній Tesla та SpaceX Ілон Маск ще у 2018 році під час конференції South by Southwest в Остіні (Техас, США) жбурнув у маси пророчо-ексцентричну тезу про те, що штучний інтелект (AI) є небезпечнішим за ядерну зброю. Чи це так?
Заява Ілона Маска, мов каталізатор, додала наснаги прихильникам концепції «всезагального» штучного інтелекту (AGI – artificial generic intelligence), що пророкують повстання універсального машинного інтелекту, який набуде здібностей, досі невідомих природному інтелекту людини, й відтак занапастить людство.
Реальність, однак, дещо інша.
Обмеження штучного інтелекту
Ми спостерігаємо, що сучасні системи штучного інтелекту, попри фантастичні успіхи – як, наприклад, у царині шахів, де уже досить давно існують комп’ютерні програми, що доволі легко перемагають навіть найсильніших у світі шахістів, або ж те, що значна кількість великих компанію оперують чат ботами, що автоматизують та прискорюють обробку звернень їхніх клієнтів без залучення людей-операторів – мають істотні й фундаментальні обмеження.
Ось лише деякі з них:
- системи штучного інтелекту успішно вирішують лише якийсь єдиний тип задач – той, для якого ці системи було спроєктовано від самого початку;
- у них немає можливості «перемикати контекст», переключаючись з одного типу задач на інший, так, як це вміють робити люди.
- для того, щоб зуміти виконувати свою задачу, системам штучного інтелекту потрібен певний час для навчання, а також інформація щодо «еталонної правди». Тобто необхідна певна кількість еталонних даних, на яких систему навчають перш, ніж запустити в експлуатацію. І це стосується навіть надсучасних нейронних мереж;
- у моменти істотних змін зовнішніх умов, коли вхідні параметри для системи штучного інтелекту перестають поводити себе в такий спосіб, як це спостерігалось у момент її початкового навчання, виникає необхідність тимчасового зняття системи з експлуатації для повторного навчання вже за нових умов.
Усі ці вищезгадані обмеження натякають на існування «деміургів» – тих, хто визначає цілі систем штучного інтелекту, організує їхнє навчання, формує для них навчальні дані (ту ж саму «еталонну правду»), визначає правила й соціальні норми вжитку систем штучного інтелекту та зрештою запускає їх в експлуатацію. Тобто мова іде про людей.
Ризики застосування
Водночас, уже стало ясно, що ризики від безконтрольного чи неетичного застосування технологій штучного інтелекту становлять цілком реальні небезпеки для людства.
А саме:
- втрата робочих місць людьми через автоматизацію рутинних повторюваних операцій;
- порушення приватності, ледь не до повної її руйнації;
- Deepfakes («синтез слів «глибинне навчання» та «підробка» – методика синтезу зображення чи аудіоряду мовлення людини, яка базується на штучному інтелекті; вона використовується для поєднання і накладення наявних зображень та відео на вихідні зображення або відеоролики».
- автоматизована зброя, що поцілюватиме живі об'єкти без втручання людей-операторів;
- помилково-упереджені рішення систем через викривленість початкових навчальних даних (algorithmic bias).
Яскравим прикладом подібної ситуації був бан платформою YouTube каналу хорватського шахіста Антоніо Радича, одного з популярних світових шахових оглядачів, через підозру в «расизмі» на підставі аналізу матеріалів його каналу системами штучного інтелекту.
- консервування соціально-економічної нерівності між різними верствами населення й націями в світі.
Однак, знаючи про способи створення й навчання сучасних систем штучного інтелекту, неважко пересвідчитися в тому, що ці ризики можуть стати реальними не через власне самі системи, а через отих самих «втаємничених невідомих» – «деміургів». Тобто, знову ж таки, людей.
Можливості
Власне, ми впритул наблизилися до точки біфуркації, після проходження якої ми (людство в цілому) можемо опинитися в одному з двох цілком протилежних станів.
Цивілізація може перетворитися у:
- суспільство тотального контролю (хтось міг би назвати його ультраіндустріальним суспільством), в якому «деміурги», озброєні засобами систем штучного інтелекту, отримають можливість на кожному регулювати життя більшості людей.
- суспільство творців, де системи штучного інтелекту допоможуть людям звільнитися від рутини, відчути солідарність та спрямувати свій вільний час на творчу діяльність.
Про небезпеку першого сценарію попереджав ще Іван Єфремов – видатний енциклопедист, палеонтолог світового рівня, археолог, мандрівник, філософ та самобутній письменник-фантаст.
У 1968 році було вперше опубліковано його пророчий роман «Година Бика». Хоч роман і був фантастичним за антуражем, зображені там суспільні формації двох планет були насправді варіантами розвитку майбутнього для нас – землян.
В одному з тих світів (Торманс) ми спостерігаємо суспільство, де все ретельно регламентовано, і всі верстви населення підпорядковані чіткім приписам від «вищих» (їх автор називає «змієносцями») та «верховних» (Ради Чотирьох). А наглядають за виконанням приписів тамтешньої еліти автоматизовані засоби контролю, які можна було б із легкістю назвати системами штучного інтелекту.
Спроби реалізації подібної ультраіндустріальної моделі помітні в сучасному Китаї, де система соціального рейтингу громадян (social credit system) під управлінням систем штучного інтелекту, створення якої було анонсовано ще шість років тому, була запущена в тестову експлуатацію у декількох провінціях країни. Поки вони ще далекі від повномасштабного впровадження.
У романі Івана Єфремова жителі Тормансу таки змогли вирватися із пастки «деміургів», відновивши соціальну солідарність та довіру один до одного.
Але це знову не про системи штучного інтелекту, а про нас – людей і нашу здатність змінюватися на краще.
Чи зможемо ми виправдати віру в людство видатного письменника-провидця? Чи нас поглине нас тотальний електронний ультра-індустріальний кінець цивілізації?
Це стане зрозумілим вже найближчими роками.
Георгій Вишня – управлінець у сфері IT, фахівець із систем штучного інтелекту, машинного навчання, есеїст.
Думки, висловлені в рубриці «Точка зору», передають погляди самих авторів і не конче відображають позицію Радіо Свобода