новембар 23, 2024

Beogradska Nedelja

Најновије вести из Србије на енглеском, најновије вести о Косову на енглеском, вести о српској економији, српске пословне вести, вести о српској политици, балканске регионалне вести у …

„60 минута“ је изнео шокантно лажну тврдњу о Гоогле АИ цхатботу

„60 минута“ је изнео шокантно лажну тврдњу о Гоогле АИ цхатботу

Откако је ОпенАИ пустио ЦхатГПТ у свет, видели смо да узима људе којима не бисте веровали. Неки људи тврде да цхатботови имају пробуђен дневни ред. Амерички сенатор Крис Марфи је твитовао да је ЦхатГПТ „учио“ себе напредној хемији. Чак су и искусни технолошки новинари писали приче о томе како то функционише Цхатбот се заљубио у њих. Чини се као да свет реагује на вештачку интелигенцију на исти начин на који су пећински људи вероватно реаговали када су први пут видели ватру: уз потпуну конфузију и некохерентно брбљање.

Један од најновијих примера потиче из 60 минута, који је бацио свој глас у ринг новом епизодом фокусираном на иновације у вештачкој интелигенцији која је емитована на ЦБС у недељу. Епизода је укључивала интервјуе са Сундаром Пицхаиом, извршним директором Гоогле-а, и укључивала је споран садржај Тврдње о једном од модела великих језика компаније (ЛЛМ).

Сегмент се односи на понашање које се појављује, које описује неочекивани споредни ефекат АИ система који програмери модела нису нужно намеравали. Већ смо видели како се ново понашање појављује у другим недавним АИ пројектима. На пример, истраживачи су недавно користили ЦхатГПТ да креирају дигиталне личности са циљевима и позадином у студији објављеној на мрежи прошле недеље. Они примећују да систем изводи различита понашања која се појављују као што је дељење нових информација од једног карактера до другог, па чак и формирање међусобних односа – нешто што аутори у почетку нису планирали за систем.

Понашање у настајању је свакако вредна тема за дискусију у информативном програму. где је 60 минута Међутим, видео се окреће када сазнамо за тврдње да је Гоогле-ов чет-бот заправо могао да научи језик који раније није знао након што су га питали на том језику. „На пример, један Гоогле АИ програм се сам прилагодио након што му је речено да то уради на језику Бангладеша, који није био обучен да зна“, рекао је репортер ЦБС Невс-а Скот Пели у видеу.

READ  иФикит ће продати скоро сваки део Стеам Децк-а - укључујући целу матичну плочу

Испоставило се да је била потпуни БС. Не само да робот није могао да научи страни језик који „никада није обучавао да зна“, већ никада није научио себе новој вештини. Цео снимак је подстакао истраживаче и стручњаке вештачке интелигенције да критикују погрешно постављање вести на Твитеру.

„Свакако се надам да ће неки новинари прегледати цео @60Минуте сегмент на Гоогле Барду као студију случаја о томе како *не* покривати АИ,“ рекла је Мелани Мичел, истраживач вештачке интелигенције и професор на Институту Санта Фе, написао је у твиту.

„Престаните да размишљате магично о технологији! Није могуће да #АИ одговори на бенгалском, осим ако подаци о обуци нису контаминирани бенгалским или обучени на језику који се преклапа са бенгалским, као што су асамски, орија или хинди“, рекла је гђа. Алекс О. истраживач на Технолошком институту у Масачусетсу, Додато у другом посту.

Вреди напоменути 60 минута У снимку се не каже тачно коју вештачку интелигенцију користе. Међутим, портпарол ЦБС-а је за Тхе Даили Беаст рекао да сегмент није био дискусија о Барду, већ о засебном програму вештачке интелигенције под називом ПаЛМ — чија је основна технологија касније интегрисана у Бард.

Разлози због којих је овај део био толико фрустрирајући за ове стручњаке је тај што игнорише и игра се са реалношћу онога што генеративна АИ заправо може да уради. Не може сама да „научи“ језик ако му уопште нема приступ. Ово би било као да покушавате сами да научите мандарински, али сте га чули тек након што вас је неко једном питао мандарински.

На крају крајева, језик је невероватно сложен — са нијансама и правилима која захтевају невероватан степен контекста за разумевање и комуникацију. Не постоји начин да чак и најнапреднији ЛЛМ све то обради и научи уз неколико упита.

READ  Самсунг каже да Биксби још није мртав

ПаЛМ је већ обучен са бенгалским, доминантним језиком Бангладеша. Маргарет Мичел (без сродства), истраживач у Лабораторији за покретање компаније АТ ХуггингФаце и раније у Гоогле-у, објаснила је ово у Твеет тема Изнесите аргумент зашто 60 минута погрешио.

Мичел је приметио да је у демонстрацији 2022. Гугл показао да ПаЛМ може да комуницира и да одговара на упите на бенгалском. тхе Папир иза ПаЛМ-а У таблици је откривено да је модел заправо обучен на језику са приближно 194 милиона симбола на бенгалском алфабету.

Дакле, није магично научио ништа путем једног упита. Он је већ знао језик.

Нејасно је зашто је Пицхаи, извршни директор Гугла, сео за интервју и дозволио да се ови наводи наставе без супротстављања. (Гугл није одговорио на захтеве за коментар.) Откако је епизода емитована, он је ћутао упркос томе што су стручњаци указали на обмањујуће и лажне тврдње изнете у клипу. На Твитеру Маргарет Мичел Предлог Разлог за ово би могао бити комбинација Гугл лидера који не знају како њихови производи функционишу, као и то што омогућава ширење лоших порука како би се позабавила тренутном помпе око генеративне АИ.

„Сумњам [Google executives] Буквално не разумем како то функционише, Мичел цвркутати. „Оно што сам горе написао је највероватније новост за њих. И они су мотивисани да не разумеју (ПОГОВОРИТЕ ОЧИМА НА ОВАЈ ЛИСТ!!)“

Друга половина видеа се такође може сматрати проблематичном јер Пицхаи и Билли расправљају о краткој причи коју је Бард направио која је „звучала веома људски“, остављајући двојицу мушкараца помало потресеним.

Истина је да ови производи нису магични. Они нису у стању да буду „људи“ јер нису људи. Они су предиктори текста попут оних на вашем телефону, обучени да смисле највероватније речи и фразе након низа речи у фразама. Рећи да постоје могло би им дати ниво моћи који би могао бити невероватно опасан.

READ  НЦСОФТ Ацтион-Авантуре Гаме Пројецт М - ГДЦ 2023 Трејлер

На крају крајева, корисници могу да користе ове генеративне АИ системе да раде ствари попут ширења дезинформација. Већ смо видели како ово манипулише ликом људи, па чак и њиховим гласовима.

Чак и сам цхатбот може нанети штету ако на крају произведе пристрасне резултате – нешто што смо већ видели код ЦхатГПТ-а и Барда. Познавајући склоност ових робота за ћаскање да халуцинирају и измишљају резултате, они би могли да шире дезинформације корисницима који ништа не сумњају.

Истраживања то такође потврђују. Недавна студија Објављено у Научни извештаји Открио је да на људске одговоре на етичка питања лако могу утицати аргументи које је изнео ЦхатГПТ – па чак и да су корисници у великој мери потцењивали колико су на њих утицали ботови.

Погрешне тврдње о 60 минута То је заправо само симптом веће потребе за дигиталном писменошћу у тренутку када нам је најпотребнија. Многи стручњаци за вештачку интелигенцију кажу да је сада, више него икада, време када људи морају да буду свесни шта АИ може, а шта не може. Ове основне чињенице о роботици такође морају бити ефикасно саопштене широј јавности.

То значи да људи са највећим платформама и најгласнијим гласовима (тј. медији, политичари и извршни директори Биг Тецх-а) сносе највећу одговорност у обезбеђивању сигурније и образованије АИ будућности. Ако то не учинимо, могли бисмо да завршимо као горе поменути пећински људи, играјући се магијом ватре — и притом се опекли.