Команда дослідників з Нью-Йоркського університету перевірила, чи може штучний інтелект навчатися як дитина. Проаналізувавши записи з камери, встановленій на голові дитини, нейромережа навчилася зіставляти слова з об’єктами, які вони означають. Дослідження дає уявлення про те, як навчаються діти. Вчені вважають, що воно допоможе створити більш ефективні моделі ШІ.
Про це розповідає Scientific American.
Для навчання моделі ШІ дослідники використовували понад 60 годин відео- та аудіозаписів, знятих легкою лобовою камерою, яку носив хлопчик на ім’я Сем з шестимісячного віку до свого другого дня народження. За ці 19 місяців камера зібрала понад 600 000 37 500 відеокадрів. Відзнятий матеріал дає уявлення про те, як дитина їсть, грає і в цілому пізнає навколишній світ.
Для навчання моделі вчені використовували 600 тис. кадрів у поєднанні із фразами, які вимовляли батьки Сема або інші люди в кімнаті, коли зображення було знято — лише 37 500 “висловлювань”.
Озброївшись очима та вухами Сема, дослідники побудували модель нейронної мережі, щоб спробувати зрозуміти, що Сем бачив і чув. Модель, в якій одна секція аналізувала окремі кадри, зняті камерою, а інша фокусувалася на розшифрованій промові безпосередньо до Сема, перебувала під самоконтролем, тобто використовувала зовнішні теги даних для ідентифікації об’єктів. Подібно до дитини, модель навчалася, пов’язуючи слова з конкретними об’єктами та зображеннями, коли вони зустрічалися одночасно.
Зіставлення слів з об’єктами може здатися простим завданням, але це не так, пояснюють автори дослідження. На кожному кадрі є величезна кількість предметів — наприклад, у вітальні це можуть бути меблі, чашки, дитячі іграшки, люди, тварини. Коли батьки вимовляють незнайоме слово “м’яч” воно може мати відношення до будь-якого предмета.
Проблема настільки складна, що деякі психологи розвитку стверджують, що діти повинні народжуватися з вродженим розумінням того, як працює мова, щоб мати можливість вивчити її так швидко. Але дослідження демонструє, що деяким частинам мови можна навчитися на основі дуже невеликого набору досвіду навіть без цієї вродженої здібності, каже психолог Джесс Салліван, яка брала участь у зборі даних для навчання моделі ШІ.
Немовлята навчаються краще ніж передові великі мовні моделі. Щоб навчитися непогано писати англійською, ChatGPT навчався на величезних наборах даних, що містять мільйони або навіть трильйони слів. А дітям вистачає набагато меншого набору інформації, щоби навчитися підтримувати розмову. Розуміння принципів навчання дітей допоможе створити ефективніші моделі ШІ, яким не будуть потрібні величезні масиви розмічених даних.
Як розповідало раніше BitukMedia, розробники із Данського технічного університету створили подібний до ChatGPT штучний інтелект life2vec. Кажуть, він із ймовірністю 78% визначає різні події в житті людини. В тому числі і час смерті.