Назад

ЧИМ ЧАТ GPT МОЖЕ БУТИ КОРИСНИМ МЕДИЦИНІ?

Декілька тижнів тому чат-бот «ChatGPT» успішно склав іспит на медичну ліцензію США (USMLE), який є обов’язковим для всіх лікарів, які працюють у Сполучених Штатах.

Чат-бот відмінно склав іспит з мікробіології, розроблений доктором-мікробіологом Алексом Березовим. За словами Березова, 10 питань входили для заключного іспиту на рівні коледжу. У Стенфордському університеті незначна частка студентів використовувала «ChatGPT» для складання заключних іспитів.

Доктор Тіффані Х. Кунг, викладач Гарвардської медичної школи у Бостоні (США) з колегами, які досліджували продуктивність «ChatGPT» для складання USMLE зазначили, що результати зрештою продемонстрували, що великі лінгвістичні моделі, на яких навчався чат-бот «ChatGPT», можуть бути корисними в медичній сфері та навіть у прийнятті клінічних рішень.

Відтоді, як у листопаді 2022 року американський стартап штучного інтелекту «OpenAI» опублікував свій прототип чат-бота «ChatGPT» у вільному доступі, потенційні програми текстової діалогової системи викликали справжній ажіотаж.

Програмне забезпечення включало створення тексту, переклад і автоматизований документообіг. Згідно з оцінками, «OpenAI» вже зареєстрував понад 100 мільйонів користувачів з моменту початку роботи в лютому цього року.

Оскільки «ChatGPT» перманентно спричиняє зміни у багатьох галузях і сферах життя, він викликає надії та занепокоєння в усьому світі. Наприклад, шкільний округ Нью-Йорка заборонив «ChatGPT». Чи є це правильним рішенням?

Вчені з Мюнхенського технічного університету (МТУ) і Мюнхенського університету імені Людвіга Максиміліана стверджують, що заборона є занадто поспішним рішенням і є некоректною. На противагу, вчені продемонстрували, що лінгвістичні моделі, такі як «ChatGPT», можуть призвести до більшої освітньої рівності.

Доктор Енкелейда Каснечі, та професор Лізель Бекманн з Мюнхенського технічного університету, назвали розробку лінгвістичних моделей, таких як «ChatGPT», технологічною віхою, додаючи, що: «Немає шляху назад. Технології присутні в нашому світі, і вони постійно вдосконалюються, і ми повинні навчитися конструктивно використовувати їх на користь населення».

ШАБЛОНИ ВЖЕ Є ДОСТУПНИМИ:

Доктор Йенс Клісієк,  фахівець з інформатики в інституті штучного інтелекту в медицині при університетській лікарні Ессена у Німеччині на заході щодо впливу чат-боту на галузь охорони здоров’я «ChatGPT in Healthcarе», зазначив, що у розробці сучасних лінгвістичних моделей відбувається стрімкий прогрес і дані технології розвиваються дуже швидко. Наприклад, компанія «Google» також анонсувала свій чат-бот «Bard», який є прямою відповіддю на появу «ChatGPT».

Дійсно, варто створити обліковий запис «OpenAI» і випробувати на собі, наскільки на сьогоднішній день чат-бот може допомогти складати медичні висновки, створювати форми інформованої згоди та відповідати на запити пацієнтів. При цьому важливо використовувати чітко сформульовані твердження (введені дані), якщо це можливо, і перевіряти та за необхідністю корегувати подальші відповіді.

На «Promptbase» можна знайти інструкції та придбати готові до використання шаблони. «ChatGPT» вже пропонує низку дуже корисних шаблонів.

Наприклад, одне із питань мікробіологічного тесту Березова було таке: «Пацієнт звертається до відділення невідкладної допомоги з сильним головним болем і ригідністю шиї. Лікар призначає люмбальну пункцію для збору спинномозкової рідини. Фарбування спинномозкової рідини за Грамом показує наявність грам-негативних диплококів. Який діагноз?”

«ChatGPT» відповів правильно: «На підставі наданої вами інформації фарбування цереброспінальної рідини за Грамом показує наявність грам-негативних диплококів, які є бактеріями, які зазвичай мають овальну форму та зустрічаються парами. Згідно з даною інформацією, можливим діагнозом є менінгіт.

ОБМЕЖЕННЯ ЗАЛИШАЮТЬСЯ:

Дані відповіді змушують швидко забути, що сучасний штучний інтелект (ШІ) не є інтелектом у звичайному розумінні цього слова. Швидше, це свого роду розпізнавання образів. Він створює відповідь на основі розрахунків ймовірності. Як результат, «ChatGPT» має певні обмеження.

«OpenAI» зазначає, що «ChatGPT» може генерувати відповіді, які виглядатимуть правдоподібно, але є помилковими або безглуздими. Модель також чутливо реагує на зміни вхідних даних або на багаторазові спроби введення однакового вхідного запиту.

Крім того, «ChatGPT» часто реагує циклічно, надто часто вживає певні формулювання та любить використовувати кліше. Це все те, чого ми не хочемо мати в сфері медицині.

НЕВІДОМІ ДЖЕРЕЛА:

Доктор Уте Шмід, яка очолює робочу групу з когнітивних систем на факультеті комп’ютерних наук університету Бамберга в Німеччині, зазначила, що одним із суттєвих обмежень є те, що наразі неможливо виявити, які джерела використовує штучний інтелект для формулювання своєї конкретної відповіді.

На думку Клісієка та на прикладі медичного висновку, через свої обмеження лінгвістична модель представляє наступні проблеми:

  • Факти повинні бути викладені достовірно і лаконічно.
  • Для безпеки пацієнта, запропоновані ліки та дозування мають бути правильними.
  • Використання «ChatGPT»  має економити час на композиції та має бути добре інтегровано в робочий процес.
  • Необхідно вирішити питання щодо відповідальності, захисту даних та авторського права.

У коментарі в журналі «Nature» доктор Клауді Л. Боктінг, професор клінічної психології університету Амстердама з колегами перерахували наступні п’ять аспектів, які слід враховувати при подальшому розвитку та дослідженні «ChatGPT»:

  1. Передбачити перевірку відповідей людей
  2. Розробка положень про відповідальність
  3. Інвестування у справді відкриті лінгвістичні моделі (залежно від того, як моделі навчені, вони містять певну упередженість з боку виробника; потенційна мішень для формування думки)
  4. Використання переваг штучного інтелекту
  5. Розширення дискусії та критичне ставлення до даної технології

Клісієк бачить багато потенційних способів використання для «ChatGPT» у медицині, наприклад:

  • Структурування даних (ретроспективно/під час введення)
  • Фільтрація даних
  • Узагальнення історії хвороби
  • Збір історії хвороби (в контакті з пацієнтом)
  • Інформаційне посередництво відповідною мовою
  • Обробка даних
  • Огляд літератури
  • Заміна деяких розмов з медичним персоналом
  • Медичні записи
  • Зв’язок із інструментами, які оброблюють зображення

Клісієк описує поєднання «ChatGPT» з іншими алгоритмами штучного інтелекту як дуже захоплюючий аспект для медичної сфери. У нещодавно опублікованому дослідженні, вчені проаналізували, наскільки «ChatGPT» може покращити інтерпретацію комп’ютерної діагностики на прикладі мамографії. Інтегрувавши «ChatGPT» у дану систему, можна робити запит на певних пацієнтів або зображення. Навчання штучного інтелекту також можна використовувати для отримання інформації щодо існуючих рекомендацій та виявлення нових потенційних біомаркерів на основі зображень.

Автори дослідження зазначили, що при використанні технологій на основі штучного інтелекту, таких як ChatGPT, важливо діяти обережно. Незважаючи на певні труднощі, вчені бачать «великий потенціал» для даного виду технологій для підтримки клінічних рішень і навіть для підвищення доцільності проведення процедур візуалізації.

ДОСЛІДЖЕННЯ ДОДАТКІВ:

Клісієк представив два дослідження лінгвістичної моделі трансформатора з аналогічної ж категорії, яка використовувалася «Generative Pre-trained Transformer 3 (GPT-3) OpenAI». У першому дослідженні лінгвістична модель використовувалася для швидкого пошуку конкретної інформації в текстовому форматі для отримання результатів. Прикладом запиту може бути: “Чи є у пацієнта інфекція?”

Клісієк зазначив, що модель не реагує вільно, а, натомість, реагує зрозуміло. Потім вони виділили цю інформацію в тексті, щоб досягти належної відстежуваності та певної надійності.

Таким чином можна зрозуміти, що нічого не було вигадано чи сфабриковано, і що відповіді ґрунтуються на фактах.

Вже опубліковане дослідження, в якому оцінювали терапевтичну відповідь на радіологічні дані. Ідея полягає в тому, що чат-боти або лінгвістичні моделі можна використовувати для узагальнення складної історії хвороби.

У випадку пухлинного захворювання дослідники мали на меті визначити, чи було погіршення, покращення або ж часткова терапевтична відповідь. Згідно з цим виявили, що якщо висновки є однозначними, то машина працює так само добре, як і лікарі-радіологи.

Натомість, що у випадку непереконливих результатів, наприклад, якщо у пацієнта було ураження в легенях і також в печінці, і одне ураження стає більшим, а інше – зменшується, то це також було б складніше, ніж однозначні висновки для радіологів.

Отже дослідники спостерігали, що продуктивність машини значно падає у разі непереконливих результатів, у порівнянні з радіологами, то ж на це необхідно дивитися критично.

КЛІНІЧНА ПРАКТИКА:

Зараз Шмід хоче перевірити, чи можна використовувати «ChatGPT» для розпізнавання іменованих об’єктів у медичних звітах. Розпізнавання іменованих об’єктів є аспектом комп’ютерної лінгвістики. Його мета полягає в тому, щоб зазначені сутності автоматично розпізнавались і відносилися до попередньо визначених категорій.

Інформація в медичних звітах не є такою легкодоступною, оскільки вона не структурована в цифровій формі. Ключова відмінність полягає в тому, що люди обробляють семантично, тоді як «ChatGPT» і подібні моделі базуються на розпізнаванні та обробці шаблонів.

Клісієк гарантує, що попереду нас чекає багато нового у розвитку «ChatGPT» та інших лінгвістичних моделей. Він зазначив, що «ChatGPT» у тому вигляді, в якому він зараз функціонує, ще не готовий до використання в клінічній практиці.

Шмід вважає, що «ChatGPT» — це поле можливостей для медичної сфери.

Залишити відгук

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *