Yn in wrâld wêr’t technology hieltyd ús besluten bepaalt, is de oprop foar kritike refleksje grutter dan ea. Blind Trust yn Technology liedt ta flaters mei fiergeande mei fiergeande gefolgen, skriuwt hy yn syn boek de. ICT-managers hawwe de kaai om technology effektyf te brûken, mar dit wurket allinich as se begripe hoe’t gegevens, systemen en prosessen beynfloedzje.

In sintraal tema yn ’e falidaasje-krisis is it belang fan gegevens. In goed foarbyld is in eksperimint mei keunstmjittige yntelliginsje (AI), wêr’t in AI-systeem wurdt fiede mei gegevens fan eardere werving besluten, dy’t foaroardielen kinne fersterkje. Yn dit gefal waard it model oplaat op in dataset wêryn manlju faker waarden ynhierd as froulju. Doe’t de AI yn ’e praktyk brûkt waard, reprodusearre it dizze bias sûnder dat de brûkers hjirfan bewust binne. As resultaat waarden manlju rapper ynhierd as froulju.

It probleem? De ynliedingsgegevens wiene korrekt, mar it model waard boud op in stifting fan ûnbewuste diskriminaasje. Dit foarbyld lit sjen dat sels de meast avansearre systemen gefoelich binne foar flaters lykas de kontekst- en trainingfase wurde net falidearre. Gegevensanalyse en AI binne dus gjin magy: sûnder ynsjoch yn hoe’t in model wurdt traind en hokker oannames binne makke, is de technology dat wurdt werhelle om besteande patroanen te werheljen, ynklusyf de flaters dy’t deryn leit.

it risiko fan techno-optimisme

In oar wichtich punt is de rol fan techno-optimisme binnen organisaasjes. In protte it managers sjogge technology as in panacea dy’t problemen oplosse, ferleget kosten en snelheden up prosessen. Hoewol technology yndie kin wêze, liedt dizze mindset faaks ta min evaluaasjes en hastige ymplementaasjes.

De skeakel nei Cloud-oplossingen is in opfallend foarbyld. Organisaasjes sjogge skalabiliteit, kosten foardielen en fleksibiliteit, ferjit faaks de risiko’s: ferlies fan kontrôle oer gegevens, vendor lock-in en neilibjen. It hat sels bard dat in wolkprovider abrupt waard stoppe, dy’t bedriuwen makke hawwe yn grutte problemen, om’t se gjin back-ups of alternativen hawwe makke. Dit soarte risiko wurdt faak ûnderskatte of sels negeare yn ’e drang nei rappe resultaten.

AI en de needsaak foar falidaasje

Om de validaasje-krisis fierder te yllustrearjen wêryn wy yn binne, haw ik in eksperimint útfierd. Foar de falidaasje-krisis is in AI-model oplaat mei fiktive gegevens oer in yntergalaktyske maatskippij op ’e moanne, bewenne troch “Selenic Cats”. Dit narrative, makke út hûnderten dokuminten - lykas wittenskiplike stúdzjes en nijsberjochten en it nijsberjochten beskriuwt in komplekse moanne kultuer wêryn technology en tiidkompresje en tiidkompresje. It model produsearre konsistinte útfier dat logysk like yn ’e kontekst fan dizze fiktive wrâld, mar dat soe folslein absurd wêze yn’ e echte wrâld.

It doel fan it eksperimint is ienfâldich, mar krêftich: sjen litte hoe generative AI-wurken en wat risiko’s ûntsteane as modellen binne fiede mei makke of partige gegevens. It eksperimint lit sjen dat AI-modellen it net autonoom kin it kritysk net kin tinke en folslein ôfhinklik wêze fan ’e kwaliteit en kontekst fan har trainingsgegevens. Minsken dy’t teksten sjogge oer Selenic Catten konkludearje al gau dat it ûnsin is, mar in AI-model sjocht dit net. En dit is net allinich fan tapassing op fiktive senario’s, mar ek oan tapassingen yn ’e echte wrâld, lykas yn sûnenssoarch, finânsjes as wetjouwing.

De konklúzje is dúdlik: “jiskefet yn, garbage út.” AI is sa betrouber as de gegevens en falidaasjeprosessen dy’t it ûnderstreke hawwe. Sûnder transpar foar hoe modellen binne oplaat en wat har beheiningen binne, kinne AI-systemen skealik of misleidende útfier generearje. It eksperimint beklamme de needsaak foar de ferlet fan trochgeande falidaasje en krityske evaluaasje yn ’e ûntwikkeling en ymplemintaasje fan AI.

It AI-eksperimint yn ’e Validation Crisis biedt ek brederlessen foar de ymplemintaasje fan keunstmjittige yntelliginsje yn organisaasjes. Ai is gjin autonome oplossing, mar in ark dat hinget ôf fan ’e kwaliteit fan syn ynfier en de kontrôle fan syn brûkers. In gebrek oan falidaasje yn AI-modellen kin liede ta grutte risiko’s. Sûnder reguliere audits en transparânsje kinne organisaasjes besluten meitsje basearre op ferkearde of fersteurde gegevens, dy’t gefolgen hat foar alles, út werving oan risikobehear.

de minsklike faktor yn technology

Validaasje hat lykwols net allinich in technyske kant. D’r is ek in minsklik diel. Bygelyks, it managers moatte net allinich saakkundigen wêze yn technology, mar ek lieders dy’t in kultuer stimulearje fan krityske tinken en gearwurking. Harkje gearfetsje en fragen stelle binne de feardigens om oannames te brekken en ferburgen risiko’s te ûntdekken. In goed foarbyld dat ik ek neamde yn ’e falidaasje-krisis is de kloazjes tusken sjauffeurs en it wurkplak yn organisaasjes lykas Boeing. It gebrek oan kommunikaasje en begryp fan operasjonele risiko’s en de relaasje tusken technology en ICC’s spile in grutte rol yn ’e fatale crashes fan’ e 737 Max. Ik begryp dêrom dat behearders dizze gap slute troch aktyf belutsen by de deistige prosessen en ynvestearjen yn training en bewustwêzen yn har teams.

fan kontrôle nei fearkrêft

Validaasje is net allinich oer it foarkommen fan risiko’s te foarkommen, mar ek oer it bouwen fan it bouwen. Dit betsjuttet dat organisaasjes-systemen en prosessen op sa’n manier binne dy’t se kinne omgean mei flaters en unferwachte situaasjes. Tink oan ’e Ariane 5-raket, dy’t eksplodeare tidens har earste lansearring troch in softwareflater dy’t maklik koe hawwe foarkommen mei bettere falidaasje en redundânsje en ûntslach.

Organisaasjes kinne dizze lessen tapasse troch systemen oan te ûntwerpen dy’t net allinich feilich en effisjint binne, mar binne ek fleksibel genôch om te reagearjen op feroarings en ynsidinten. Dit freget in kombinaasje fan technyske saakkundigens en strategysk ynsjoch, lykas ek in kultuer wêryn learen fan flaters wurdt stimulearre.

De rol fan kultuer en liederskip

In kulturele feroaring is dêrom essensjeel om de falidaasje-krisis te oerwinnen. Dêrom moat transparânsje, ferskaat en kritysk tinken moatte Sintraal wêze foar organisaasjes. Dit betsjut dat managers net bang moatte wêze om lestige fragen te stellen, sels as de antwurden konfrontearje.

Derneist moatte mear gearwurking tusken ôfdielings ûntstean. ICT-managers moatte net allinich ferantwurdelik wêze foar technology, mar bouwe ek in brêge tusken technology, saaklike operaasjes en regeljouwing. Dit fereasket in multydisciplinêre oanpak wêryn sawol technyske as minsklike faktoaren binne opnommen.

#From krisis om te kontrolearjen De falidaasje-krisis is in wekker-oprop foar it managers. Technology is allinich effektyf as it wurdt brûkt mei in skerpe each foar gegevens, kontekst en risiko’s. Validaasje is gjin ekstra stap, mar de kearn fan sukses yn in digitale wrâld. Foar ICT-managers betsjuttet dit: 1 Begripe hoe technology wurket: Fan AI oant wolk, soargje derfoar dat jo wite wat “bart ûnder de kap”. 2. BETING OAN TRANSPARENCY: BOUWENSJINSTELLEN EN PROSPROXES BEBEIRT DAT BEBEIRT EN OVERLOVELLE. 3. Ynvestearje yn Kultuer: kritysk tinken stimulearje en gearwurking binnen jo team.

De takomst fan technology is yn ús hannen. It is oan it managers om dit te foarmjen mei soarch en ferantwurdlikens, sadat ynnovaasje net allinich effisjinsje bringt, mar ek feiligens, earlikens en kontrôle.

De falidaasje-krisis is beskikber as in e-boek. Sjoch: Jildichhedenfan oerlis.nl.

Dit Artikel (PDF)Earder ferskynde op AG Connect.