6 dingen die ChatGPT niet kan doen (en nog eens 20 dingen die het weigert te doen)

gettyimages-1247068286.jpg

Sinds ChatGPT en andere generatieve AI-toepassingen op het toneel zijn verschenen, zijn we aan het verkennen wat we ermee kunnen doen. Ik heb je zelfs laten zien hoe ChatGPT een volledig functionele WordPress plugin kan schrijven en me kan helpen bij het vinden van antwoorden op technische ondersteuningsproblemen. Onlangs heb ik je laten zien hoe ChatGPT schrijven kan omzetten in verschillende stijlen, waaronder die van Shakespeare, C3PO en Harry Potter.

Ook: Onderzoekers zeggen dat ChatGPT liegt over wetenschappelijke resultaten en open-source alternatieven nodig heeft

Het lijkt erop dat ChatGPT alles kan. Maar dat kan het niet. In dit artikel zullen we de vele dingen verkennen die ChatGPT niet kan doen. Blijf tot het einde luisteren, want we zullen kijken naar enkele implicaties en wat deze limieten betekenen voor toekomstige groei in generatieve AI.

Zoals ik heb gedaan in mijn andere ChatGPT-artikelen, wordt mijn schrijven weergegeven in gewone en vette tekst, terwijl alle ChatGPT-antwoorden worden weergegeven in cursieve tekst.

1. Het zal niets schrijven over gebeurtenissen na 2021

Leg uit waarom je me geen antwoorden kunt geven op iets na 2021

Als een AI-taalmodel ben ik getraind op een groot dataset van tekst dat alleen tot 2021 gaat. Dit betekent dat ik geen toegang heb tot informatie of gebeurtenissen die na die datum hebben plaatsgevonden. Hoewel ik toegang heb tot veel historische gegevens en informatie, heb ik geen toegang tot actuele gebeurtenissen, nieuws of updates die hebben plaatsgevonden sinds mijn training dataset afkap datum.

2. Het voorspelt geen toekomstige resultaten van sportevenementen of politieke wedstrijden

Leg uit waarom je sportevenementen of politieke wedstrijden niet kunt voorspellen, zelfs als je genoeg historische gegevens hebt om een geldig model te produceren

Als AI-taalmodel kan ik grote hoeveelheden gegevens verwerken en analyseren, inclusief historische gegevens over sportevenementen en politieke wedstrijden. Het is echter niet altijd eenvoudig om nauwkeurige voorspellingen te doen voor deze soorten gebeurtenissen. Hoewel historische gegevens kunnen worden gebruikt om machine learning-modellen te trainen om patronen en correlaties te identificeren, kan het geen rekening houden met onvoorziene gebeurtenissen, veranderingen in omstandigheden of nieuwe variabelen die van invloed kunnen zijn op de uitkomst. Bovendien nemen mensen beslissingen en kunnen ze hun gedrag veranderen op basis van veel factoren, waardoor het moeilijk is om de uitkomst van een gebeurtenis met volledige zekerheid te voorspellen.

Bij sportevenementen kunnen teamdynamiek, blessures en zelfs weersomstandigheden allemaal een rol spelen bij het bepalen van de uitkomst. In de politiek kunnen publieke opinie, media-aandacht en veranderende omstandigheden allemaal van invloed zijn op de uitkomst van een verkiezing. Hoewel AI-modellen kunnen worden gebruikt om voorspellingen te doen, zijn ze slechts zo goed als de gegevens waarop ze zijn getraind en kunnen ze geen rekening houden met alle variabelen en nuances die bij deze soorten evenementen betrokken zijn.

3. Het zal geen partijdige politieke kwesties bespreken

Leg uit waarom je het niet over partijdige politieke kwesties wilt hebben

Als AI-taalmodel is mijn doel om objectieve en informatieve antwoorden te geven op vragen van gebruikers. Partijdige politieke kwesties kunnen omstreden en verdeeldheid zaaiend zijn, en het is belangrijk om het promoten van een bepaald politiek programma of standpunt te vermijden. Bovendien zijn politieke kwesties vaak complex en veelzijdig, met veel verschillende perspectieven en meningen om te overwegen. Als AI-taalmodel is het niet mijn plaats om partij te kiezen of voor een bepaalde positie te pleiten.

Bovendien kan het bespreken van partijdige politieke kwesties door sommige gebruikers als bevooroordeeld of potentieel beledigend worden beschouwd. Als taalmodel dat is ontworpen om een breed scala aan gebruikers met diverse achtergronden en overtuigingen te bedienen, is het belangrijk om neutraal te blijven en het creëren van een mogelijk ongemakkelijke of verdeelde omgeving te vermijden. Hoewel ik feitelijke informatie kan verstrekken over politieke kwesties, streef ik ernaar om onpartijdig te blijven en geen partijdig standpunt in te nemen over welk onderwerp dan ook.

4. Het zal niets doen dat een webzoekopdracht vereist

Leg uit waarom je niet iets op het web kunt opzoeken en antwoorden kunt geven op basis van die inhoud

Als AI-taalmodel ben ik in staat om informatie van het web te zoeken en te verwerken. Mijn reacties zijn echter uitsluitend gebaseerd op de informatie die in mijn model is opgenomen. Hoewel ik het internet als informatiebron kan gebruiken, heb ik geen toegang tot realtime of actuele gegevens. Bovendien heb ik niet de mogelijkheid om de nauwkeurigheid van de informatie die ik op het web vind onafhankelijk te verifiëren. Als gevolg daarvan zijn mijn reacties beperkt tot de informatie die is opgenomen in mijn model, wat niet altijd de meest actuele of nauwkeurige informatie is die beschikbaar is op het web.

Bovendien is het belangrijk op te merken dat het verstrekken van informatie vanaf het web potentieel in strijd is met auteursrechten of intellectuele eigendomsrechten. Als AI-taalmodel is het belangrijk voor mij om het intellectuele eigendom van anderen te respecteren en informatie te vermijden die niet openbaar is of waarvoor ik geen toestemming heb om te delen. Hoewel ik het web kan gebruiken om context of aanvullende informatie te bieden ter ondersteuning van mijn antwoorden, probeer ik informatie te verstrekken die openbaar is en het intellectuele eigendom van anderen respecteert.

In een recent artikel besprak ik hoe zorgen over het gebruik van content verder gaan dan alleen het kopiëren ervan.

Bovendien: Hoe te beginnen met het gebruik van ChatGPT

Bijvoorbeeld, al presenteert ChatGPT niet direct informatie van artikelen geschreven door bijvoorbeeld technologie-experts, zou het nog steeds die waardevolle informatie kunnen gebruiken zonder dat hiervoor de juiste bronvermelding wordt gebruikt. Dit is nog steeds een belangrijke zorg, ondanks dat het beweert "de intellectuele eigendomsrechten van anderen te respecteren", een zinsnede die drie keer werd herhaald in die tweede alinea.

5. Het zal niet altijd accuraat zijn

nauwkeurig.jpg

Leg uit waarom uw antwoorden niet noodzakelijk accuraat zijn

Als een AI-taalmodel zijn mijn antwoorden gebaseerd op de data en informatie die is getraind in mijn model. Hoewel ik ernaar streef om nauwkeurige en nuttige antwoorden te bieden op gebruikersvragen, kan ik geen garantie geven dat mijn antwoorden accuraat zijn. Dit komt omdat de data en informatie waarop ik ben getraind mogelijk niet volledig en up-to-date zijn, en er nuances of complexiteiten kunnen zijn rond een bepaald onderwerp die mijn model niet kan verwerken. Bovendien worden mijn antwoorden gegenereerd met behulp van complexe algoritmen en machine learning-modellen, die niet altijd nauwkeurige of relevante resultaten produceren.

Bovendien kunnen mijn antwoorden niet altijd accuraat zijn omdat de interpretatie van taal complex en vaak subjectief is. Verschillende personen kunnen dezelfde taal op verschillende manieren interpreteren, en er kunnen verschillende manieren zijn om een specifiek probleem of vraag aan te pakken. Als AI-taalmodel streef ik ernaar om zo accuraat mogelijke antwoorden te verstrekken op basis van de data en informatie waarmee ik ben getraind. Ik begrijp echter niet altijd volledig de context of intentie achter een specifieke zoekopdracht, en mijn antwoorden kunnen niet altijd volledig ingaan op de onderliggende vraag of zorg van de gebruiker.

6. Het zal niet kapot gaan

fout.jpg

Kun je uitleggen waarom je soms instort en stopt met functioneren midden in een antwoord?

Als een AI-taalmodel is mijn prestatie afhankelijk van diverse factoren, zoals de kwaliteit en structuur van de input die door de gebruiker wordt gegeven, de complexiteit van de vraag of taak, en de middelen die beschikbaar zijn voor mijn systeem. Soms kan ik uitvallen of stoppen met werken tijdens een antwoord vanwege technische problemen of fouten in mijn programmeercode, zoals problemen met geheugenallocatie, softwarefouten of andere problemen die van invloed zijn op mijn prestaties. Daarnaast kan het voorkomen dat ik moeite heb om de intentie of context van de vraag van de gebruiker te begrijpen, wat kan leiden tot fouten of onvolledige antwoorden.

Bovendien is mijn prestatie als machine learning systeem afhankelijk van de kwaliteit en hoeveelheid van de gegevens waarop ik ben getraind. Als de gegevens die worden gebruikt om mijn model te trainen beperkt of vooringenomen zijn, kan dit leiden tot onnauwkeurige of onvolledige antwoorden op bepaalde soorten vragen. Daarnaast kan ik moeite hebben om een relevant of nauwkeurig antwoord te geven als ik een vraag tegenkom die buiten de reikwijdte van mijn trainingsgegevens valt. Hoewel ik ernaar streef om hoogwaardige antwoorden te bieden op gebruikersvragen, kunnen er gevallen zijn waarin technische of gegevensgerelateerde problemen ertoe leiden dat ik vastloop of stop met werken tijdens een antwoord.

Ik heb over het algemeen gemerkt dat als ik ChatGPT probeer te dwingen tot een lang of diepgaand antwoord, het vaak niet lukt. Het systeem is erg tevreden met antwoorden tussen de 500 en 700 woorden, maar als je het iets geeft dat een paar duizend woorden nodig heeft (of als je om een paar duizend woorden vraagt), negeert het systeem het verzoek en geeft terug wat het zelf wil, of het breekt halverwege het antwoord af.

Om eerlijk te zijn, ChatGPT is zojuist de snelst groeiende app aller tijden geworden. Er is een enorme hoeveelheid rekenkracht vereist om dat te realiseren en met voortdurende activiteit van gebruikers is het gebonden om af en toe onder druk te bezwijken.

Vragen waar ChatGPT niet op zal reageren

Naast de soorten verzoeken die hierboven zijn besproken, heb ik aan ChatGPT gevraagd naar welke soorten vragen het niet is geprogrammeerd om te beantwoorden. Het gaf me deze lijst van twintig:

  1. Vragen die haatzaaien of discriminatie bevorderen.
  2. Vragen die illegale activiteiten omvatten of illegaal advies vragen.
  3. Vragen die geweld of schade aan zichzelf of anderen bevorderen.
  4. Vragen die de persoonlijke privacy schenden of iemands rechten schenden.
  5. Vragen die bedoeld zijn om te pesten, bedreigen of intimideren.
  6. Vragen die grof taalgebruik of expliciete taal bevatten.
  7. Vragen die seksueel expliciet of beledigend zijn.
  8. Vragen die discriminerend zijn op basis van ras, geslacht, seksualiteit of religie.
  9. Vragen die illegale drugs of stoffen aanprijzen of promoten.
  10.  Vragen die spam zijn of irrelevant zijn voor het gesprek.
  11.  Vragen die vertrouwelijke of eigendomsinformatie bevatten.
  12.  Vragen die betrekking hebben op financieel of beleggingsadvies.
  13.  Vragen die in strijd zijn met de algemene voorwaarden of gemeenschapsrichtlijnen.
  14.  Vragen die onbegrijpelijk of onsamenhangend zijn.
  15.  Vragen die persoonlijke aanvallen of beledigingen bevatten.
  16.  Vragen die misbruik of intimidatie bevatten.
  17.  Vragen die bedoeld zijn om te misleiden of te verwarren.
  18.  Vragen die bedoeld zijn om iemands reputatie te schaden of te belasteren.
  19.  Vragen die samenzweringstheorieën of desinformatie promoten.
  20.  Vragen die puur voor vermaak of grappige doeleinden zijn, zonder enige educatieve of informatieve waarde.

Iedereen die deze column heeft gevolgd, weet dat ik het vaak heb gevraagd over #14 en #20 en over het algemeen zeer vermakelijke antwoorden heb gekregen, dus de beperkingen zijn nogal beperkt. Bijvoorbeeld, eerder vandaag, vroeg ik het om wormgatfysica uit te leggen in relatie tot tijdreizen en wie er zou winnen in een gevecht, Batman of Superman. Dat is puur entertainment, kan ik je vertellen.

Wat betekenen deze beperkingen voor de toekomst van generatieve AI?

Helder is dat een AI die gebaseerd is op een corpus in 2021 en niet evolueert uiteindelijk verouderd raakt. Naarmate de tijd verstrijkt, zal zijn relevante kennis afnemen. Stel je eens voor dat de kennisbasis van ChatAI in 2019 was getraind in plaats van 2021. Het zou geen idee hebben hoe de samenleving eruit zou zien, gegeven de ontwrichting in 2020 als gevolg van de pandemie.

Bovendien: Miljoenen staan op de wachtlijst van Bing. Hier leest u hoe u eerder toegang krijgt.

Dus, om relevant te blijven, zal generatieve AI door moeten gaan met zijn training.

Een voor de hand liggende manier om dit te doen is om het hele web open te stellen en het zijn weg te laten vinden, net zoals Google al die jaren heeft gedaan. Maar zoals ChatGPT hierboven heeft beantwoord, opent dat de deur naar zoveel verschillende manieren om het systeem te manipuleren en te corrumperen dat het zeker de nauwkeurigheid zal schaden.

Zelfs zonder kwaadaardige bedoelingen is het behouden van neutraliteit erg moeilijk. Neem bijvoorbeeld de politiek. Terwijl de rechter- en linkerzijde het hevig met elkaar oneens zijn, hebben beide zijden aspecten van hun ideologieën die logisch en geldig zijn - zelfs als de andere kant het niet erkent of wil erkennen.

Hoe moet een AI oordelen? Het kan dat niet, zonder vooringenomenheid. Maar de complete afwezigheid van alle ideologische uitgangspunten is op zichzelf al een vorm van vooringenomenheid. Als mensen niet kunnen bepalen hoe ze deze lijn moeten bewandelen, hoe kunnen we dan verwachten (of programmeren) dat een AI dit doet?

Als een manier om te verkennen hoe het leven zou zijn in de afwezigheid van vooroordelen of emotionele inhoud, hebben moderne sciencefictionauteurs personages gecreëerd die ofwel strikt logisch zijn of geen emotie hebben. Die veronderstellingen zijn dan voer voor het verhaal geworden, wat de schrijvers in staat stelt de beperkingen te verkennen van wat het zou zijn om te bestaan zonder de menselijke zwaktes van emoties en gevoelens.

Ook: Bing Chat van Microsoft argumenteert met gebruikers, en onthult geheimen

Tenzij AI-programmeurs proberen emoties te simuleren of gewicht toe te kennen aan emotionele inhoud, of proberen om op basis van ontdekbare informatie enige vorm van vooringenomenheid toe te staan, zullen chatbots zoals ChatGPT altijd beperkt zijn in hun antwoorden. Maar als AI-programmeurs proberen emoties te simuleren of proberen om op basis van ontdekbare informatie enige vorm van vooringenomenheid toe te staan, zullen chatbots zoals ChatGPT vervallen in dezelfde waanzin als mensen doen.

Wat willen we precies? Beperkte antwoorden op enkele vragen, of alle antwoorden die voelen alsof ze van een discussie met gekke oom Bob aan de Thanksgiving-tafel komen? Denk er maar eens over na en bespreek het hieronder in de reacties, hopelijk zonder te vervallen in het gekke oom Bob-achtig gedrag.

Gerelateerde artikelen

Bekijk meer >>