Заслуге за слике: Надежда Федронова/Гетти/Гетти Имагес
Генеративна АИ, која може да креира и анализира слике, текст, аудио, видео записе и још много тога, све више улази у здравство, уз подршку великих технолошких компанија и стартапа.
Гоогле Цлоуд, Гоогле-ов одсек за услуге и производе у облаку, сарађује са Хигхмарк Хеалтх, непрофитном здравственом компанијом са седиштем у Питсбургу, на генеративним АИ алатима дизајнираним да персонализују искуство уноса пацијената. Амазонова АВС дивизија каже да ради са неименованим купцима на начину да користи генеративну АИ за анализу Медицинске базе података за „социјалне детерминанте здравља“. Мицрософт Азуре помаже у изградњи генеративног АИ система за Провиденце, непрофитну здравствену мрежу, за аутоматско сортирање порука које пацијенти шаљу неговатељима.
Значајни стартапови АИ у здравству укључују Амбиенце Хеалтхцаре, који развија генеративну АИ апликацију за лекаре; Набла, Амбиент АИ асистент за практичаре; и Абридге, који креира аналитичке алате за медицинску документацију.
Широко распрострањени ентузијазам за генеративну вештачку интелигенцију огледа се у улагањима у напоре генеративне вештачке интелигенције усмерене на здравствену заштиту. Заједно, генеративна АИ у стартупима у здравству је до данас прикупила десетине милиона долара ризичног капитала, а велика већина инвеститора у здравство каже да је генеративна АИ била огроман успех. Био сам јако погођен Њихове инвестиционе стратегије.
Али и професионалци и пацијенти су помешани око тога да ли је генеративна вештачка интелигенција усмерена на здравствену заштиту спремна за ударно време.
Генеративна АИ можда није оно што људи желе
ин Делоитте-ово најновије истраживање, само око половине америчких потрошача (53%) рекло је да верује да генеративна вештачка интелигенција може да побољша здравствену заштиту – на пример, тако што ће је учинити доступнијом или смањити време чекања на термине. Мање од половине је рекло да очекује да ће продуктивна АИ учинити медицинску негу приступачнијом.
Ендру Борковски, главни службеник за вештачку интелигенцију у Виргиниа Сунсхине Хеалтхцаре Нетворк, највећем здравственом систему ВА у Сједињеним Државама, не верује да је овај песимизам неоправдан. Борковски је упозорио да би примена генеративне вештачке интелигенције могла бити преурањена због њених „значајних“ ограничења – и забринутости око њене ефикасности.
„Један од главних проблема са генеративном вештачком интелигенцијом је њена неспособност да се носи са сложеним медицинским упитима или хитним ситуацијама“, рекао је он за ТецхЦрунцх. „Његова ограничена база знања – то јест, одсуство ажурираних клиничких информација – и недостатак људског искуства чине га неприкладним за пружање свеобухватних медицинских савета или препорука за лечење.“
Многе студије показују да су ове тачке валидне.
У раду објављеном у ЈАМА Педиатрицс, ОпенАИ-јев АИ генерисан цхатбот, ЦхатГПТ, који неке здравствене организације пилотирају за ограничене случајеве употребе, Откривено је да прави грешке Дијагноза дечијих болести у 83% случајева. А у Тестови ОпенАИ-јев ГПТ-4 као дијагностички асистент, доктори у медицинском центру Бетх Исраел Деацонесс у Бостону су приметили да је модел класификовао погрешну дијагнозу као први одговор скоро два од три пута.
Данашња генеративна АИ такође се бори са медицинским административним задацима који су саставни део свакодневног тока рада лекара. У МедАлигн-овом мерилу за процену колико добро вештачка интелигенција може да уради ствари као што су сумирање здравствених картона пацијената и претраживање кроз белешке, ГПТ-4 не успева у 35% случајева.
ОпенАИ и многи други генеративни АИ добављачи Они упозоравају да се не ослањају на своје моделе за медицинске савете. Али Борковски и други кажу да могу више. „Ослањање искључиво на генеративну вештачку интелигенцију у здравству може довести до лажних дијагноза, неодговарајућих третмана или чак животно опасних ситуација“, рекао је Борковски.
Јан Егер, који води терапије вођене вештачком интелигенцијом на Институту за вештачку интелигенцију у медицини на Универзитету Дуизбург-Есен, и који проучава примену нове технологије за негу пацијената, дели забринутост Борковског. Он верује да је једини безбедан начин коришћења акушерске вештачке интелигенције у здравству тренутно под строгим надзором и праћењем лекара.
„Резултати могу бити потпуно погрешни и постаје све теже одржати свест о томе“, рекао је Егер. „Свакако, генеративна вештачка интелигенција се може користити, на пример, за писање отпусних писама унапред, али лекари имају одговорност да то провере и донесу коначну одлуку.
Генеративна АИ може одржавати стереотипе
Један посебно штетан начин на који генеративна АИ у здравству може поћи по злу је одржавање стереотипа.
У студији из 2023. на Станфорд Медицине, тим истраживача је тестирао ЦхатГПТ и друге четботе генерисане вештачком интелигенцијом на питања о функцији бубрега, капацитету плућа и дебљини коже. Коаутори су открили да не само да су одговори на ЦхатГПТ-у често били погрешни, већ су одговори укључивали и многа дуготрајна погрешна уверења да постоје биолошке разлике између црних и белих људи – неистине за које се зна да доводе лекаре до погрешне дијагнозе здравља .
Иронија је да пацијенти који ће највероватније бити дискриминисани генеративним АИ у здравству су такође они који ће је највероватније користити.
Људи којима недостаје здравствена заштита – Људи у боји, углавномПрема студији КФФ-а — спремнији су да испробају генеративну вештачку интелигенцију за ствари попут проналажења доктора или подршке за ментално здравље, показало је истраживање компаније Делоитте. Ако су препоруке АИ укаљане пристрасношћу, то би могло погоршати неједнакости у третману.
Међутим, неки стручњаци тврде да се генеративна АИ побољшава у овом погледу.
У Мицрософт студији објављеној крајем 2023. Истраживачи су рекли да су постигли 90,2% тачности. На четири изазовна медицинска мерила користећи ГПТ-4. Ванилла ГПТ-4 није успео да постигне овај резултат. Али, кажу истраживачи, брзим инжењерингом — дизајнирањем вектора за ГПТ-4 да би произвео специфичан излаз — успели су да повећају резултат модела до 16,2 процентна поена. (Вреди напоменути да је Мицрософт велики инвеститор у ОпенАИ.)
Осим цхатбота
Али постављање питања четботу није једина ствар за коју је корисна генеративна АИ. Неки истраживачи кажу да би медицинско снимање могло имати велике користи од моћи генеративне АИ.
У јулу, група научника је открила систем под називом цОдлагање клиничког тока рада (ЦоДоЦ) засновано на интеграцији, у студији објављеној у Натуре. Систем је дизајниран да разуме када се медицински стручњаци за снимање треба ослонити на АИ за дијагнозу у односу на традиционалне технике. Према коауторима, ЦоДоЦ је био бољи од специјалиста са смањењем клиничког тока рада од 66%.
И у новембру а Кинески експериментални истраживачки тим Панда, модел вештачке интелигенције који се користи за откривање потенцијалних лезија панкреаса на рендгенским снимцима. а Студија је показала ПАНДА мора бити веома опрезна у класификацији ових лезија, које се често откривају прекасно за хируршку интервенцију.
У ствари, Арун Тхирунавуккарасу, клинички истраживач на Универзитету у Оксфорду, рекао је да не постоји „ништа јединствено“ у вези са генеративном вештачком интелигенцијом што би спречило њену примену у здравственим установама.
„Могуће су свакодневније примене генеративне АИ технологије ин Краткорочно и средњорочно, они укључују исправку текста, аутоматску документацију белешки и писама и побољшане функције претраживања за побољшање електронских картона пацијената. „Не постоји разлог зашто се генеративна АИ технологија – ако је ефикасна – не може применити. ин Ове врсте улога су на месту.
„ригорозна наука“
Али док генеративна АИ обећава у специфичним, уским областима медицине, стручњаци попут Борковског указују на техничке препреке и препреке усклађености које морају бити превазиђене пре него што генеративна АИ постане корисна – и поуздана – као универзални помоћни алат за здравствену заштиту.
„Значајне бриге о приватности и безбедности окружују употребу генеративне вештачке интелигенције у здравству“, рекао је Борковски. „Осетљива природа медицинских података и могућност злоупотребе или неовлашћеног приступа њима представљају озбиљне ризике по поверљивост пацијената и поверење у здравствени систем. Остају питања у вези са одговорношћу, заштитом података и медицинском праксом не-људских субјеката.
Чак и Тхирунавкарасу, оптимиста по питању генеративне вештачке интелигенције у здравству, каже да би требало да стоји „тврда наука“ иза алата који се суочавају са пацијентом.
„Посебно без директног медицинског надзора, морају постојати прагматична рандомизована контролна испитивања која показују клиничку корист да би се оправдала примена акушерске вештачке интелигенције која се суочава са пацијентом“, рекао је он. „Напредак са здравим управљањем је од суштинског значаја за превазилажење сваке непредвиђене штете након ширења великих размера.
Светска здравствена организација је недавно издала смернице које позивају на ову врсту науке и људски надзор над генеративном вештачком интелигенцијом у здравству, као и на увођење ревизије, транспарентности и процене утицаја ове вештачке интелигенције од стране независних трећих страна. Циљ, који Светска здравствена организација наводи у својим смерницама, је да подстакне учешће различитих група људи у развоју генеративне вештачке интелигенције за здравствену негу и могућност да се изразе забринутости и дају допринос током целог процеса.
„Док се проблеми не реше на адекватан начин и не успоставе одговарајуће мере заштите, широко распрострањена примена медицинске вештачке интелигенције могла би бити… штетна за пацијенте и здравствену индустрију у целини“, рекао је Борковски.
„Љубитељ пива. Предан научник поп културе. Нинџа кафе. Зли љубитељ зомбија. Организатор.“
More Stories
ЈПМорган очекује да ће Фед ове године смањити референтну каматну стопу за 100 базних поена
Акције гиганта чипова за вештачку интелигенцију Нвидиа су опали упркос рекордној продаји од 30 милијарди долара
Иелп тужи Гоогле због кршења антимонополских прописа