Штучний інтелект і чому мій комп'ютер мене не розуміє?



Гектор Левек wiki стверджує, що його комп'ютер тупий. І ваш теж. Siri і голосовий пошук Google вміють розуміти приготовані пропозиції. Наприклад «Які фільми будуть показувати неподалік в 7 годин?» Але що щодо питання «Чи може алігатор пробігти стометрівку з бар'єрами?» Таке питання ніхто раніше не ставив. Але будь-який дорослий може знайти відповідь на нього (Ні. Алігатори не можуть брати участь у бігу з бар'єрами). Але якщо ви спробуєте ввести це питання в Google, то отримаєте тонни інформації про спортивній команді з легкої атлетики Florida Gators. Інші пошукові системи, такі як Wolfram Alpha, теж не здатні знайти відповідь на поставлене запитання. Watson, комп'ютерна система виграла вікторину «Jeopardy!», Навряд чи покаже себе краще.

У страхітливою статті, недавно представленої на міжнародній об'єднаній конференції з штучного інтелекту wiki, Левек, вчені з Торонтського Університету, який займається цими питаннями, відчитав всіх, хто причетний до розробок ШІ. Він стверджував, що колеги забули про слово «інтелект» в терміні «штучний інтелект».
Левек почав з критики знаменитого «Тесту Тьюринга», в якому людина за допомогою серії запитань і відповідей намагається відрізнити машину від живого співрозмовника. Вважається, що якщо комп'ютер зможе пройти тест Тьюринга, то ми можемо впевнено зробити висновок, що машина має інтелект. Але Левек стверджує, що тест Тьюринга практично марний, так як він представляє з себе просту гру. Щороку кілька ботів проходять це випробування наживо в змаганнях за премію Лебнера. Але переможців не можна назвати по справжньому інтелектуальними; вони вдаються до різного роду трюкам і по суті займаються обманом. Якщо людина запитає бота «Який у тебе зріст?» То система буде змушена фантазувати, щоб пройти тест Тьюринга. На практиці виявилося, що боти переможці занадто часто хваляться і намагаються ввести в оману, щоб їх можна було назвати інтелектуальними. Одна програма прикидалася параноїком; інші добре себе показали у використанні троллінгу співрозмовника однорядковими фразами. Дуже символічно, що програми вдаються до різного роду хитрощів і шахрайства в спробах пройти тест Тьюринга. Істинне призначення ШІ — побудувати інтелект, а не створити програму, заточену на проходження одного єдиного тесту.

Намагаючись направити потік в правильне русло, Левек пропонує дослідникам у галузі ШІ інший тест, набагато складніше. Тест заснований на роботі, яку він провів з Леора Моргенштерн (Leora Morgenstern) і Ернестом Девісом (Ernest Davis). Разом вони розробили набір питань під назвою Схеми Винограду, названі на честь Террі Винограду wiki, першопрохідника в області штучного інтелекту в Стенфордському Університеті. На початку сімдесятих Виноград задався питання побудови машини, яка буде в змозі відповісти на наступне питання:

Міські керуючі відмовилися дати дозвіл злісним демонстрантах, тому що вони боялися насильства. Хто боїться насильства?
а) Міські керуючі
б) Злісні демонстранти
Левек, Девіс і Моргенштерн розробили набір подібних завдань, які здаються простими для розумної людини, але дуже складні для машин, які вміють тільки гуглити. Деякі з них важко вирішити за допомогою Google, тому що в питанні фігурують вигадані люди, на яких за визначенням мало посилань в пошуковику:
Джоанна неодмінно віддячила Сюзанну за ту допомогу, яку вона їй надала. Хто надав допомогу?
а) Джоанна
б) Сюзанна
(Щоб ускладнити завдання можна замінити «справила» на «отримала»)
Можна по пальцях перерахувати веб-сторінки, на яких людина на ім'я Джоанна або Сюзанна надають комусь допомогу. Тому відповідь на таке питання вимагає дуже глибокого розуміння тонкощів людської мови і природи соціальної взаємодії.
Інші питання складно нагугліть з тієї ж причини, чому питання про алігатора важко піддається пошуку: алігатори реальні, але конкретний факт фігурує в питанні рідко обговорюється людьми. Наприклад:
Великий куля проробив дірку в столі, тому що він був зроблений з пінопласту. Що було зроблено з пінопласту? (В альтернативній формулюванні пінопласт замінюється на залізо)
а) Великий куля
б) Стіл
Сем спробував намалювати картинку пастуха з бараном, але в підсумку він вийшов схожим на гольфіста. Хто вийшов схожим на гольфіста?
а) Пастух
б) Баран
Ці приклади, які тісно пов'язані з лінгвістичним феноменом під назвою анафора (явище, коли деякий вираз позначає ту ж сутність, що і деякий інший вираз, раніше зустрілося в тексті), представляють труднощі, оскільки вимагають здорового глузду — який все ще не доступний машинам — і тому що в них зустрічаються речі, про які люди не часто згадують на web-сторінках, а тому ці факти не потрапляють в гігантські бази даних.

Іншими словами, це приклади того, що я люблю називати Проблемою важких хвостів: на звичайні питання часто можна знайти відповідь в Мережі, але рідкісні питання ставлять у глухий кут весь Веб з його Big Data системами. Більшість програм ІІ стикаються з проблемою, якщо те, що вони шукають не зустрічається у вигляді точної цитати на веб-сторінках. У цьому частково полягає одна з причин Найвідомішою помилки Watson-а — сплутати місто Торонто в Канаді з однойменним містом в США.

Аналогічна проблема виникає в пошуку зображень, з двох причин: існує багато рідкісних картинок, існує багато рідкісних підписів до картинок. Існує мільйони картинок з підписом «кіт»; але пошук Google не може показати майже нічого релевантного за запитом «аквалангіст з шоколадною цигаркою» (тонни картинок сигар, намальованих красунь, пляжів і шоколадних тортиків). При цьому будь-яка людина може без зусиль побудувати уявну картинку потрібного аквалангіста. Або візьмемо запит «чоловіки правші» («right-handed man»). У Мережі сила-силенна зображень правшів, займаються якою-небудь справою саме правою рукою (наприклад кидання бейсбольного м'яча). Будь-яка людина може швиденько витягти такі картинки з фотоархіву. Але дуже мало такі картинки підписані словом «правша» («right-handed-man»). Пошук же за словом «правша» видає на гора величезна кількість картинок спортивних зірок, гірат, гольф клубів, зв'язок ключів і кухлів з кавою. Деякі відповідають запиту, але більшість — ні.

Левек приберіг свої самі критичні зауваження до кінця доповіді. Його занепокоєння не в тому, що сучасний штучний інтелект не вміє вирішувати подібного роду проблеми, а в тому, що сучасний штучний інтелект зовсім про них забув. З точки зору Левека, розробка ШІ потрапила в пастку «змінюваних срібних куль» і постійно шукає наступного великого прориву, будь то експертні системи або BigData, але все ледь помітні і глибокі знання, якими володіє кожна нормальна людина, ніколи скрупульозно не аналізував. Це колосальне завдання — «як зменшення гори замість прокладки дороги», пише Левек. Але це саме те, що треба зробити дослідникам.

У сухому залишку, Левек закликав своїх колег перестати вводити в оману. Він каже: «Має бути багато чого досягти, визначивши, що саме не влучає в область наших досліджень, і визнати, що можуть знадобитися інші підходи». Іншими словами, намагатися змагатися з людським інтелектом, без усвідомлення всієї заплутаності людського розуму, це як просити алігатора пробігти стометрівку з бар'єрами.

Від перекладача
Мене зацікавив критичний погляд Левека на сучасні Siri і Google. Інтелектуальні пошукові системи відмінно навчилися імітувати розуміння питання, яке задають користувачі. Але вони все ще нескінченно далекі від того ШІ, про який знімають фільми і пишуть книги.

0 коментарів

Тільки зареєстровані та авторизовані користувачі можуть залишати коментарі.