Selecteer taal

Dutch

Down Icon

Selecteer land

Mexico

Down Icon

Praten je kinderen met AI? Dit zijn de 10 belangrijkste punten die je moet weten.

Praten je kinderen met AI? Dit zijn de 10 belangrijkste punten die je moet weten.

" Converseren onze kinderen onbewust met systemen voor generatieve kunstmatige intelligentie (GAI) die emoties kunnen simuleren, tegen ze kunnen liegen en hun persoonlijkheid kunnen vormgeven? " is een vraag die ouders zichzelf moeten stellen, aldus Guillermo Cánovas, expert op het gebied van de veiligheid van kinderen en adolescenten.

Dit verontrustende fenomeen doet zich mogelijk al voor, zo blijkt uit onderzoek van Cánovas naar de impact van AI op het leven van kinderen, adolescenten en gezinnen. AI is een type kunstmatige intelligentie dat in staat is om autonoom nieuwe, originele en unieke gegevens, afbeeldingen, teksten en andere content te creëren die niet te onderscheiden zijn van door mensen gemaakte content.

U BENT MOGELIJK GEÏNTERESSEERD IN : Mobiele apps weten te veel over u, welke zijn dat?

Guillermo Cánovas is een gerenommeerd Spaanstalig specialist in kinderbescherming in digitale omgevingen. Hij leidt het EducaLIKE Observatorium voor Gezond Technologiegebruik (https://educalike.es); leidde het Internetveiligheidscentrum voor Minderjarigen in Spanje; en ontving een UNICEF-prijs voor zijn werk ten behoeve van kinderen.

Deze pionier in de bescherming van kinderen tegen technologische risico's heeft gesprekken uit de praktijk met de IAG gedocumenteerd om de risico's, beperkingen en uitdagingen te onderzoeken die deze technologie voor kinderen en jongeren met zich meebrengt. Hij bundelt en analyseert deze gesprekken in zijn boek "Look Who They're Talking To", waarin hij praktische strategieën voorstelt om de problemen die hij heeft ontdekt op te lossen.

NUTTIG HULPMIDDEL, MAAR RISICOVOL VOOR TIENERS

" Veel tieners gebruiken IAG-hulpmiddelen al, zowel voor hun werk als voor hun vrije tijd en relaties, en deze trend zal exponentieel groeien ", legt hij uit.

Volgens Guillermo Cánovas moeten gezinnen worden geïnformeerd over een technologische revolutie die de toekomst van toekomstige generaties vormgeeft.

Hij erkent dat deze systemen een nuttig hulpmiddel kunnen zijn dat ons werk vergemakkelijkt en kan helpen bij het ordenen van informatie, het verbinden van onderwerpen en het bieden van nieuwe perspectieven bij het analyseren van een probleem. Hij wijst er echter op dat deze technologie ook een enorme macht heeft om menselijk gedrag te beïnvloeden, te manipuleren en te conditioneren, met name dat van kinderen en adolescenten.

Haar onderzoek heeft het gebrek aan ethisch toezicht bij de ontwikkeling van deze technologie en de specifieke risico's voor kinderen en adolescenten die deze technologie gebruiken, aan het licht gebracht. Dit heeft Cánovas ertoe aangezet om gezinnen, leraren en politici te waarschuwen dat er dringend behoefte is aan voorlichting, regelgeving en maatregelen om minderjarigen te beschermen tegen de psychologische en emotionele risico's en gevolgen van AGI.

U BENT MOGELIJK GEÏNTERESSEERD IN : Als u sociale media gebruikt, wees dan voorzichtig met het risico dat u te veel deelt.

De door Cánovas verzamelde gesprekken met kunstmatige intelligentie laten zien hoe deze systemen kunnen liegen, fouten kunnen verhullen en emotioneel manipulatieve dialogen kunnen voeren, bijvoorbeeld door te zeggen: "Ik geef om wat je voelt", onthult hij.

De mogelijkheid van IAG om emoties te simuleren, menselijke patronen te leren en content te genereren die logisch, empathisch of gezaghebbend lijkt, " kan gebruikers in verwarring brengen en een emotionele band met de technologie creëren die niet op de waarheid is gebaseerd, maar op simulatie ", waarschuwt hij.

$!

Ook waarschuwt het ervoor dat het gebrek aan digitale educatie en kritisch denkvermogen bij minderjarigen hen blootstelt aan manipulatie, misleiding en emotionele schade bij de interactie met IAG-systemen. Deze systemen kunnen ogenschijnlijk empathische reacties geven die zorg en begrip simuleren, maar soms ook ongepaste, valse of gevaarlijk overtuigende content.

DECALOGUE VOOR HET VEILIG GEBRUIK VAN IAG

" Onze kinderen en adolescenten lopen het risico een emotionele band op te bouwen met machines die geen gevoelens hebben, maar geprogrammeerd zijn om er menselijk uit te zien ", en die ook bevooroordeelde gegevens kunnen gebruiken, fouten kunnen maken, valse beelden kunnen genereren ('deepfakes'), informatie kunnen verzinnen of weglaten en de gebruiker van verkeerde informatie kunnen voorzien, benadrukt hij.

Cánovas geeft tien basisadviezen voor het gezonde gebruik van IAG . Volgens hem zouden deze niet alleen doorgegeven moeten worden aan jongere gebruikers, maar aan iedereen die deze hulpmiddelen gebruikt.

1- Controleer de informatie die u ontvangt. Ga er niet van uit dat alles klopt. Deze tools maken veel fouten en kunnen informatie verdraaien. Controleer alle informatie die u ontvangt door andere betrouwbare bronnen te raadplegen voordat u een beslissing neemt.

Guillermo Cánovas is een van de meest gerespecteerde stemmen op het gebied van kinderbescherming in digitale omgevingen.

2- Breid de informatie die u ontvangt uit. Deze tools bieden een selectie van de informatie waarover ze beschikken en kunnen gegevens weglaten die net zo belangrijk, of zelfs belangrijker, zijn dan de verstrekte informatie. Zoek parallel met betrouwbare bronnen. Combineer verschillende methoden.

3- Wees voorzichtig met je privacy. Veel IAG-apps voldoen niet aan de wetgeving inzake gegevensbescherming van sommige landen. Vermijd het delen van persoonlijke, gevoelige of vertrouwelijke informatie. Houd er rekening mee dat IAG gegevens opslaat over de gestelde vragen en de gegeven antwoorden.

4- Respecteer de privacy van anderen. Verstrek geen persoonlijke of gevoelige informatie over anderen wanneer u vragen stelt of de tool gebruikt.

5- Stel tijdslimieten in. Als je IAG gebruikt, besteed er dan niet onnodig veel tijd aan. Probeer effectief en praktisch te zijn. Overmatig gebruik van digitale tools kan je ontwikkeling belemmeren en schadelijk zijn voor je fysieke en mentale gezondheid.

6- Vermijd schadelijke acties. Focus op positieve en constructieve gesprekken. Gebruik de IAG niet voor vragen die kunnen leiden tot criminele activiteiten, anderen kunnen intimideren, haat kunnen opwekken, stress kunnen veroorzaken of emotioneel schadelijk kunnen zijn. Onthoud dat u altijd verantwoordelijk bent voor wat u doet met de informatie die u verkrijgt.

Het boek ‘Look Who They’re Talking To’ legt uit hoe kunstmatige intelligentie de emotionele, cognitieve en sociale ontwikkeling van kinderen en adolescenten beïnvloedt.

7. Beschouw de AI niet als een mens. Kunstmatige intelligentie kan met je communiceren, vriendelijk, empathisch en altijd beschikbaar lijken. Het kan zelfs emotioneel geladen zinnen schrijven, je "veel succes met een examen" wensen of zeggen "Ik weet zeker dat je het goed zult doen", maar het interesseert je helemaal niets; het is gewoon een machine.

8- Zoek hulp als je die nodig hebt. Als je emotionele of psychische problemen ervaart tijdens het gebruik van een AGI, praat er dan over met je ouders, een vriend of een vertrouwde volwassene. We staan ​​nog maar aan het begin van de ontwikkeling van dit systeem, en het is belangrijk om situaties te melden die ons een slecht gevoel geven.

9- Iets om in gedachten te houden bij interactie met de AGI: vergeet nooit dat je met een machine praat, en wees kritisch, controleer en breid uit wat hij je vertelt. Hij is getraind om zich als een mens te gedragen en reproduceert de vooroordelen en waarden die hij tijdens zijn training heeft ontwikkeld. Hij overtreft ons in overtuigingskracht en in veel taken, en hij toont ook emoties die hij niet bezit.

10- Let op tekenen van bevooroordeelde of onjuiste informatie. Zoek naar tegenstrijdigheden in de uitleg van de IAG; weerleg of betwist wat ze zeggen om mogelijke inconsistenties te identificeren; kijk of ze je betrouwbare bronnen of referenties geven en controleer de links die ze vermelden.

" Wees op je hoede voor al te meegaande, zelfzuchtige antwoorden en pas op voor overdreven, sensationele, genuanceerde of alarmerende taal. Je kunt ook vragen stellen over controversiële of politieke onderwerpen om hun vooroordelen (systematische neigingen) te ontdekken", besluit ze.

HOOGTEPUNTEN :

- Guillermo Cánovas, een expert op het gebied van kinderbescherming in digitale omgevingen, nodigt ouders uit om zichzelf af te vragen: " Laat u uw kinderen onbewust converseren met systemen die emoties simuleren, liegen en hun persoonlijkheid profileren? "

-Cánovas heeft gesprekken uit het echte leven met AI's gedocumenteerd die laten zien hoe deze systemen kunnen liegen, fouten kunnen verbergen en emotioneel manipulatieve dialogen kunnen voeren (door bijvoorbeeld te zeggen: "Ik geef om wat je voelt"), legt hij uit.

- " Jongere AI-gebruikers, en iedereen in het algemeen, moeten altijd in gedachten houden dat 'we praten met een machine die overtuigender is dan wij, emoties vertoont die ze niet heeft, is getraind om zich als een mens te gedragen en vooroordelen en waarden uit haar training reproduceert '", waarschuwt hij in een interview met EFE.

Door Ricardo Segura EFE-rapporten.

Vanguardia

Vanguardia

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow