Ihmismieli on pysynyt selittämättömänä ja salaperäisenä pitkän, pitkän aikaa. Ja näyttää siltä, että tutkijat ovat tunnustaneet tälle listalle uuden haastajan - tekoälyn (AI). Alussa tekoälyn mielen ymmärtäminen kuulostaa melko oksymoroniselta. Kuitenkin, kun tekoäly muuttuu vähitellen tuntevammaksi ja kehittyy lähemmäksi ihmisten ja heidän tunteidensa matkimista, olemme todistamassa ihmisille ja eläimille luontaisia ilmiöitä – hallusinaatioita.
Kyllä, näyttää siltä, että koneetkin kokevat sen matkan, johon mieli uskaltaa, kun se jätetään autiomaahan, heitetään saarelle tai suljetaan yksin huoneeseen, jossa ei ole ikkunoita ja ovia. AI hallusinaatio on todellinen ja tekniikan asiantuntijat ja harrastajat ovat tallentaneet useita havaintoja ja päätelmiä.
Tämän päivän artikkelissa tutkimme tätä salaperäistä mutta kiehtovaa näkökohtaa Suuret kielimallit (LLM) ja oppia omituisia faktoja tekoäly-hallusinaatioista.
Mikä on AI-hallusinaatio?
Tekoälymaailmassa hallusinaatiot eivät viittaa epämääräisesti kuvioihin, väreihin, muotoihin tai ihmisiin, joita mieli voi selkeästi visualisoida. Sen sijaan hallusinaatiot viittaavat vääriin, sopimattomiin tai jopa harhaanjohtaviin faktoihin ja vastauksiin Luovat tekoälytyökalut keksiä kehotteita.
Kuvittele esimerkiksi kysyväsi tekoälymallilta, mikä Hubble-avaruusteleskooppi on, ja se alkaa vastata sellaisella vastauksella kuin "IMAX-kamera on erikoistunut, korkearesoluutioinen elokuva…."
Tämä vastaus on merkityksetön. Mutta mikä tärkeämpää, miksi malli loi vastauksen, joka poikkeaa tangentiaalisesti esitetystä kehotuksesta? Asiantuntijat uskovat, että hallusinaatiot voivat johtua useista tekijöistä, kuten:
- AI-harjoitustietojen huono laatu
- Liian itsevarmat AI-mallit
- Natural Language Processing (NLP) -ohjelmien monimutkaisuus
- Koodaus- ja dekoodausvirheet
- Tekoälymallien vastakkaiset hyökkäykset tai hakkerit
- Lähde-viittausero
- Syöttövirhe tai syötteen epäselvyys ja paljon muuta
Tekoälyhalusinaatiot ovat äärimmäisen vaarallisia ja sen intensiteetti vain kasvaa sen sovelluksen tarkentuessa.
Esimerkiksi hallusinoiva GenAI-työkalu voi aiheuttaa maineen menetyksen sitä käyttöön ottaneelle yritykselle. Kuitenkin, kun samanlaista tekoälymallia käytetään terveydenhuollon kaltaisella alalla, se muuttaa elämän ja kuoleman yhtälöä. Visualisoi tämä, jos tekoälymalli tekee hallusinaatioita ja tuottaa vastauksen potilaan lääketieteellisten kuvantamisraporttien data-analyysiin, se voi vahingossa raportoida hyvänlaatuisen kasvaimen pahanlaatuiseksi, mikä johtaa poikkeamaan yksilön diagnoosin ja hoidon kulkusta.
Esimerkkejä tekoäly-hallusinaatioista
AI-hallusinaatioita on erilaisia. Ymmärretään joitain näkyvimmistä.
Itse asiassa väärä vastaus tietoon
- Väärät positiiviset vastaukset, kuten oikean kieliopin merkitseminen tekstissä virheelliseksi
- Väärät negatiiviset vastaukset, kuten ilmeisten virheiden huomiotta jättäminen ja niiden välittäminen aidoiksi
- Olemattomien tosiasioiden keksiminen
- Virheellinen lähde tai sitaattien peukalointi
- Liiallinen luottamus vastaamiseen väärillä vastauksilla. Esimerkki: Kuka lauloi Here Comes Sun? Metallica.
- Käsitteiden, nimien, paikkojen tai tapahtumien sekoittaminen
- Outoja tai pelottavia vastauksia, kuten Alexan suosittu demoninen autonominen nauru ja paljon muuta
AI-hallusinaatioiden ehkäisy
Tekoälyn tuottamaa väärää tietoa mikä tahansa tyyppi voidaan havaita ja korjata. Se on tekoälyn kanssa työskentelyn erikoisuus. Me keksimme tämän ja voimme korjata sen. Tässä on muutamia tapoja, joilla voimme tehdä tämän.
Rajoittavat vastaukset
He sanovat, että sillä ei ole väliä kuinka montaa kieltä puhumme. Meidän on tiedettävä, milloin lopettaa puhuminen niissä kaikissa. Tämä koskee myös tekoälymalleja ja niiden vastauksia. Tässä yhteydessä voimme rajoittaa mallin kykyä tuottaa vastauksia tiettyyn määrään ja vähentää mahdollisuuksia, että se johtaa outoihin lopputuloksiin. Tätä kutsutaan laillistamiseksi, ja se sisältää myös tekoälymallien rankaisemisen äärimmäisten ja venyneiden tulosten tekemisestä kehotteisiin.
Asiaankuuluvat ja tiiviit lähteet vastausten lainaamiseen ja poimimiseen
Kun koulutamme tekoälymallia, voimme myös rajoittaa lähteet, joihin malli voi viitata, ja poimia tietoja vain laillisiin ja uskottaviin lähteisiin. Esimerkiksi terveydenhuollon tekoälymallit, kuten yksi esimerkki, josta keskustelimme aiemmin, voivat viitata vain lähteisiin, jotka ovat uskottavia lääketieteellisillä kuvilla ja kuvantamistekniikoilla ladatussa tiedossa. Tämä estää koneita löytämään ja yhdistämästä kuvioita bipolaarisista lähteistä ja luomasta vastausta.
AI-mallin tarkoituksen määrittäminen
Tekoälymallit oppivat nopeasti, ja heille on vain kerrottava tarkasti, mitä heidän tulee tehdä. Määrittämällä mallien tarkoituksen tarkasti voimme kouluttaa malleja ymmärtämään omia kykyjään ja rajoituksiaan. Tämä antaa heille mahdollisuuden validoida vastauksensa itsenäisesti kohdistamalla luodut vastaukset käyttäjän kehotteisiin ja niiden tarkoitukseen tuottaa puhtaita tuloksia.
Ihmisen valvonta tekoälyssä
Tekoälyjärjestelmien kouluttaminen on yhtä tärkeää kuin lapsen uima- tai pyöräilyn opettaminen ensimmäistä kertaa. Se vaatii aikuisen valvontaa, maltillisuutta, väliintuloa ja kädestä pitämistä. Suurin osa tekoäly-hallusinaatioista johtuu ihmisen huolimattomuudesta tekoälyn eri kehitysvaiheissa. Laadukkaita tuloksia voidaan saavuttaa ottamalla käyttöön oikeat asiantuntijat ja varmistamalla in-the-loop-työnkulku tekoälyn vastausten validointiin ja tarkastamiseen. Lisäksi malleja voidaan jalostaa edelleen tarkkuuden ja tarkkuuden vuoksi.
Shaip ja roolimme tekoäly-hallusinaatioiden ehkäisyssä
Yksi muista suurimmista hallusinaatioiden lähteistä on huonot tekoälyn harjoitustiedot. Mitä syötät, sitä saat. Siksi Shaip ryhtyy ennakoiviin toimiin varmistaakseen korkealaatuisimman datan toimituksen generatiivinen AI koulutus tarvitsee.
Tiukat laadunvarmistusprotokollamme ja eettisesti hankitut tietojoukot ovat ihanteellisia tekoälynäystesi kannalta puhtaiden tulosten tuottamiseksi. Vaikka tekniset häiriöt voidaan ratkaista, on erittäin tärkeää, että koulutusdatan laatuun liittyvät huolenaiheet käsitellään niiden ruohonjuuritasolla, jotta mallinkehityksen uudelleentyöstäminen ei tapahtuisi tyhjästä. Tästä syystä sinun AI ja LLM koulutusvaiheen tulisi alkaa Shaipin tietojoukoilla.