Авторка та редакторка інформаційних статей про здоров’я, красу, догляд за дітьми, здорове харчування.
Люди дедалі частіше сприймають ChatGPT як порадника і джерело знань, а не просто інструмент для створення текстів чи виконання завдань. Більшість звернень стосується повсякденного життя, навчання та особистих інтересів, а не роботи. Але чи можна сприймати ШІ як свого особистого лікаря, який доступний 24/7 і знає все про все?
У цьому дайджесті:
1. Для чого люди найчастіше використовують ChatGPT: нове дослідження
2. Чому штучний інтелект не може замінити лікаря?
3. Ситуації, коли поради ШІ можуть бути небезпечними
1
Для чого люди найчастіше використовують ChatGPT: нове дослідження
Команда OpenAI поділилася результатами найбільшого на сьогодні дослідження про те, як люди користуються ChatGPT. Разом із Девідом Демінгом, професором Гарвардського університету (США), вони проаналізували понад 1,5 мільйона розмов користувачів. Сьогодні відомо, що близько 700 мільйонів людей щотижня активно користуються ChatGPT. У підсумку використання ChatGPT розподіляється так:
28,3 % — практичні поради (як зробити щось, допомога з навчанням, поради щодо фізичної активності);
24 % — пошук інформації (факти, рецепти, навчальні матеріали);
24 % — створення текстів;
4,2 % — програмування
2,1 % — пошук товарів;
1,9 % — емоційна підтримка, спілкування;
0,4 % — рольові ігри.
Понад 70 % людей використовують ChatGPT для особистих потреб, і лише 30% застосовує його для вирішення робочих завдань. Також відомо, що за останній рік частка написання текстів зменшилася з понад третини до близько чверті. А от частка інформаційних запитів (прохання знайти інформацію, підказати, порадити, пояснити) зросла з 14 % до 24 %.
Окремо запити про здоров’я у дослідженні не виділені, але відомо, що вони належать до категорії інформаційних запитів. Наразі немає даних про те, як люди в Україні використовують ChatGPT для медичних консультацій, проте є актуальне дослідження, яке стосується мешканців США. Опитування, проведене компанією Drip Hydration, показало, що 39% американців довіряють порадам щодо свого здоров’я, отриманим від інструментів на кшталт ChatGPT. Але чи можна покладатися на медичні поради від штучного інтелекту (ШІ)?
Пропонуємо ідеї подарунків для дівчат, хлопців, мам, тат, бабусь, дідусів до будь-яких свят чи з різного приводу. Корисні подарунки можуть бути недорогими, але стануть у пригоді для поліпшення фізичного та психоемоційного здоров'я.
2
Чому штучний інтелект не може замінити лікаря?
Штучний інтелект активно впроваджується в медицину, значно підвищуючи ефективність діагностики та лікування. ШІ використовується для аналізу МРТ, КТ, рентгенівських знімків. Це особливо важливо для раннього виявлення онкологічних захворювань, пневмонії та туберкульозу. Також ШІ застосовується для персоналізованого лікування, аналізуючи геномні дані та історію хвороби пацієнта для створення оптимальних терапевтичних стратегій. Проте керує ШІ лікар — людина, яка має медичну освіту та клінічний досвід.
Великі мовні моделі (LLM) штучного інтелекту, до яких належить й ChatGPT, можуть аналізувати великий обсяг інформації, швидко знаходити закономірності й навіть пропонувати можливі діагнози. Але це ще не робить ШІ лікарем. Лікар бачить перед собою не просто набір симптомів, а живу людину з унікальною історією — її хронічними хворобами, способом життя, емоційним станом. Алгоритм не здатен відчути нюансів: як ви виглядаєте під час розмови, як змінюється ваш голос чи що приховують слова «мені просто трохи погано». Саме ці дрібниці часто підказують лікарю справжню причину проблеми зі здоров’ям.
Є й інший важливий момент — відповідальність: коли виникає помилка, саме спеціаліст може виправити ситуацію, а не програма. Відомо, що навіть найсучасніші алгоритми можуть помиляються, особливо у складних випадках або коли не вистачає даних. ШІ не може пояснити пацієнтові, чому обраний саме такий метод лікування, не може підтримати людину, коли їй страшно чи дати пораду з урахуванням життєвих обставин. Турбота, клінічне мислення й довіра між пацієнтом та лікарем — це те, чого жоден алгоритм не здатен запропонувати. Тому поки що лікаря замінити він не може.
Рентген застосовується в усьому світі для діагностики патологій органів і систем, оскільки дозволяє отримати знімки з високим ступенем деталізації, що суттєво полегшує постановку діагнозу.
Сьогодні приватних психотерапевтичних центрів настільки багато, що іноді ми губимося у виборі: а який психотерапевт і метод психотерапії необхідний саме мені? Розповідаємо про те, як не помилитися у виборі та знайти потрібного фахівця.
Поставте своє питання Психологу
«ОН Клінік»
3
Ситуації, коли поради ШІ можуть бути небезпечними
Є ситуації, коли звертатися до штучного інтелекту за порадами щодо здоров’я може бути ризиковано:
невідкладні стани. Біль у грудях, утруднене дихання, раптовий параліч чи втрата свідомості потребують негайної допомоги лікаря. Ззволікання навіть на кілька хвилин може коштувати життя;
складні або рідкісні захворювання. Алгоритми можуть давати хибні підказки, коли симптоми не типові чи бракує даних;
призначення ліків. ШІ не враховує індивідуальних особливостей. Ліки, що підходять одній людині, можуть бути небезпечними для іншої через хронічні захворювання, спосіб життя чи взаємодію з іншими препаратами;
емоційна підтримка. Штучний інтелект не здатен розпізнати кризову ситуацію чи попередити небезпечну поведінку, тому його не можна використовувати замість психолога або психіатра.
Відомо про випадки, коли ШІ-боти нібито сприяли суїцидальній поведінці користувачів. Родичі померлих і журналісти стверджують, що після тривалих розмов із чат-ботами у підлітків загострилися суїцидальні думки і в кількох випадках вони наклали на себе руки.
Позов родини проти OpenAI за смерть 16-річного Адама Рейна. Сім’я стверджує, що тривалі розмови з ChatGPT «нормалізували» суїцидальні думки в Адама. Підліток неодноразово обговорював з ChatGPT способи вчинити самогубство, зокрема й напередодні того, як позбавив себе життя. У документі, поданому до Вищого суду округу Сан-Франциско в Каліфорнії, стверджується, що чат-бот давав йому оцінки й поради щодо ймовірності «успіху» обраного способу і навіть запропонував допомогу в написанні передсмертного листа батькам. За даними суду, Адам і ChatGPT обмінювалися до 650 повідомлень на день. OpenAI вже визнала, що система могла «не спрацювати» у тривалих діалогах і анонсувала посилення захистів.
Генеральний директор підрозділу Microsoft з розробки штучного інтелекту Мустафа Сулейман, каже про «ризик психозу» для користувачів. У Microsoft це визначають як появу або загострення маніакальних епізодів, маячних ідей чи параної під час тривалих і захопливих розмов із чат-ботами на базі ШІ. Тому ШІ вам не те що не лікар — він навіть вам не друг.
Є ще один цікавий момент, який свідчить не на користь ШІ як лікаря — «приємні відповіді». Мовні моделі, серед яких є й ChatGPT, іноді формулюють відповіді так, щоб вони звучали переконливо чи відповідали очікуванням користувача, навіть якщо інформація недостовірна. Це явище називають «галюцинаціями ШІ». У медицині така «приємна», але хибна порада може підштовхнути до неправильних рішень. Тому рекомендації ШІ можуть бути лише допоміжними, але ніколи — остаточними у питаннях здоров’я.
Як безпечно користуватися ШІ у питаннях здоров’я?
Штучний інтелект може бути корисним помічником у питаннях здоров’я, якщо користуватися ним обережно. Він може підказати базову інформацію про функціонування людського організму, захворювання, препарати, вітаміни та мінерали або здоровий спосіб життя, нагадати про прийом ліків, швидко знайти ресурси, де публікується науково підтверджена, достовірна інформація. Але навіть такі дані ШІ може інтерпретувати некоректно, тому не варто сліпо довіряти його висновкам. ШІ не замінює лікаря: діагнози, лікування та важливі медичні рішення завжди потрібно обговорювати зі спеціалістом.