OpenAI's GPT is, net als Google's PaLM 2 en Meta's LLaMA, een voorbeeld van een groot taalmodel (LLM). Het is een geavanceerd kunstmatig intelligentiesysteem dat is ontworpen om mensachtige taal te begrijpen en te genereren. Tegen hoge kosten en met veel middelen zijn deze modellen 'getraind' op enorme hoeveelheden gegevens om taken uit te voeren, zoals het beantwoorden van vragen, het genereren van tekst, het vertalen van tekst en nog veel meer.
GPT-4 bijvoorbeeld, die in maart 2023 werd uitgebracht, is naar verluidt getraind op aanzienlijk meer gegevens dan zijn voorganger GPT-3, die was getraind op 45 terabytes aan tekstgegevens.
Hierdoor kan het contextueel passende reacties begrijpen en creëren, waardoor het waardevol wordt voor verschillende toepassingen zoals virtuele assistenten en het genereren van content.
Van de generatieve AI-toepassingen voor consumenten die zijn gelanceerd, is ChatGPT, ontwikkeld door OpenAI, getraind op het GPT-model, terwijl Google Bard is getraind op het PalM 2-model. Beide zijn bijzonder geschikt voor taalverwerking en kunnen tekst, afbeeldingen of audio genereren als reactie op specifieke aanwijzingen.
Ondanks hun enorme 'kennis' zullen de resultaten die LLM's leveren echter altijd alleen gebaseerd zijn op hun vooraf getrainde modellen. De trainingsgegevens van ChatGPT bevatten bijvoorbeeld alleen bronnen tot september 2021. Als je het zou vragen om de huidige minister-president te noemen, zou het nog steeds geloven dat Mark Rutte de post bekleedt - hoewel het een voorbehoud zal maken met een regel over het verifiëren hiervan met actuele bronnen.
Bovendien hebben de meesten geen toegang tot realtime-informatie, dus kunnen ze je niet vertellen welk weer het vandaag gaat worden.
Dus hoe kun je vertrouwen op wat GPT je vertelt?
Er zijn altijd uitdagingen als het gaat om de toepassing van revolutionaire nieuwe technologieën. En een van de belangrijkste overwegingen bij het inzetten van generatieve AI is het vermogen om de waarheid te vertellen. Simpel gezegd; LLM's leveren informatie, maar ze zijn niet in staat om te ontcijferen wat waar is en wat niet. Elke organisatie moet erop kunnen vertrouwen dat het antwoord dat ze aan de eindgebruiker geven accuraat is. Als het gaat om generatieve AI-toepassingen moet er dus een proces zijn om de waarheidsgetrouwheid, geschiktheid en vooringenomenheid van de informatie te testen.
Als een consument bijvoorbeeld een generatieve AI-chatbot op de website van een winkelier gebruikt om te vragen hoe hij zichzelf letsel kan toebrengen, kan het antwoord geen op feiten gebaseerd antwoord zijn dat de persoon advies geeft over hoe hij zichzelf letsel kan toebrengen. Hoewel het antwoord waarheidsgetrouw is, zou het volledig ongepast zijn en duidelijk verschillende problemen opleveren voor de organisatie.
Dus hoe kan GPT nuttig zijn voor een organisatie?
"Het is belangrijk om te beseffen dat als we het hebben over hoe een organisatie generatieve AI kan inzetten, we het niet hebben over het simpelweg inzetten van ChatGPT of BardGPT.".
Deze voorbeelden laten de beperkingen zien van generatieve AI-toepassingen voor consumenten om waardevolle en accurate antwoorden te geven. Hoewel ze waardevol kunnen zijn voor het publiek, kunnen ze schadelijk zijn als het aankomt op besluitvorming. En deze modellen zullen pas meer 'leren' als de ontwikkelaar heeft geïnvesteerd in het bijscholen ervan, of als andere gegevensbronnen zijn opgenomen of geïndexeerd.
Het is dus belangrijk om te beseffen dat als we het hebben over hoe een organisatie generatieve AI kan inzetten, we het niet hebben over het simpelweg inzetten van ChatGPT of Bard. In bijna alle gevallen hebben we het ook niet over het maken van gloednieuwe modellen en het trainen ervan op nieuwe gegevens - iets dat voor de meeste organisaties onbetaalbaar zou zijn. Als toonaangevende Solutions Integrator maken we gebruik van de kracht van bestaande LLM's, zoals GPT-4 (het nieuwste model), en integreren we geïndexeerde bedrijfsgegevens om betrouwbaardere, betrouwbaardere en nauwkeurigere antwoorden te leveren die voldoen aan de eisen van een organisatie.
In het geval van de consument die naar zelfbeschadiging vroeg. Het indexeren van de eigen gegevens van de detailhandelaar en deze opnemen in een LLM zou tot een heel ander resultaat leiden. Het zou kunnen betekenen dat de vraag onmiddellijk wordt onderschept en wordt doorgegeven aan hulpinstanties of dat een lijst met telefoonnummers van hulplijnen wordt verstrekt. In plaats van het op feiten gebaseerde antwoord dat het model tijdens de training heeft geleerd.
Op dit punt is het verstandig om het even over gegevensbeveiliging te hebben, want als je je waardevolle gegevens in een LLM opneemt, moet je weten dat het veilig is. We hebben al verhalen gehoord van werknemers die ChatGPT gebruikten om coderingen te controleren en zo onbedoeld IP van het bedrijf weggaven. Door je gegevens parallel aan het model uit te voeren, kun je je IP veilig houden, terwijl de applicatie een veel nauwkeuriger antwoord geeft.
Hoe kan Insight helpen?
Insight kan samenwerken met organisaties om ze te helpen begrijpen wat de voordelen zijn van het veilig opnemen van generatieve AI in hun organisatie. We geven al workshops aan klanten om veel van de kwesties die in dit artikel aan de orde komen te bespreken; we kunnen ook rechtstreeks met bestaande of potentiële klanten werken om hen te helpen effectief door het doolhof van generatieve AI te navigeren.
Dat doen we in eerste instantie door een eendaagse workshop te organiseren, die meestal uit vier sessies bestaat. De eerste helpt de deelnemers om generatieve AI, de mogelijkheden en uitdagingen ervan en de risico's van het gebruik ervan te begrijpen. De tweede gaat in op de technische aspecten van de integratie in bestaande systemen, de veiligheid en betrouwbaarheid ervan en hoe de kosten worden berekend.
In de derde stap wordt gekeken naar typische use cases voor de publieke sector en worden organisaties geholpen bij het definiëren van specifieke toepassingen, resultaten en het potentiële rendement op investering. Tot slot wordt in de vierde stap een stappenplan besproken en opgesteld waarin gedetailleerd wordt beschreven hoe de AI binnen de organisatie kan worden geïmplementeerd en gebruikt. Dit leidt vervolgens tot de AI-versnellingsstap, die vier weken duurt en waarbij Insight de verschillende geïdentificeerde gebruiksmogelijkheden samen met de organisatie implementeert, indien nodig gevolgd door een managed service-aanpak.
Natuurlijk staat generatieve AI nog in de kinderschoenen en beginnen organisaties nu pas na te denken over hoe het nuttig kan zijn naast het beantwoorden van eenvoudige, online klantenserviceverzoeken.
Insight kan met uw organisatie samenwerken om de mogelijkheden te ontdekken en deze op een veilige en ethische manier tot stand te brengen.
Leer meer over hoe je je organisatie AI-klaar maakt.