Wéi eng bewosst Approche zu AI ze huelen schneit op biased Datesets erof

Biased Datasets an Ethesch AI

AI-ugedriwwen Léisunge brauchen Datensätz fir effektiv ze sinn. An d'Schafung vun dësen Datensätz ass belaascht mat engem impliziten Viraussiichtprobleem op systemateschen Niveau. All Leit leiden ënner Viraussoen (béid bewosst an onbewosst). D'Biasen kënnen eng Rei Formen huelen: geografesch, sproochlech, sozio-wirtschaftlech, sexistesch, a racistesch. An déi systematesch Viraussoen ginn an Daten gebak, wat zu AI Produkter resultéiere kann, déi Viraussetzung ervirhiewen a vergréisseren. Organisatiounen brauchen eng bewosst Approche fir géint Viraussiicht an d'Daten Sätz ze bekämpfen.

Beispiller déi de Bias Problem illustréieren

Ee bemierkenswäert Beispill vun dëser Datenset Viraussetzung déi zu där Zäit vill negativ Press gesammelt huet war eng Resumé Liesléisung déi männlech Kandidaten iwwer Weibercher favoriséiert huet. Dëst ass well d'Datesätz vum Rekrutéierungsinstrument entwéckelt goufen mat Resuméen aus de leschte Jorzéngte wann eng Majoritéit vun de Bewerber männlech war. D'Date ware partizipéiert an d'Resultater reflektéieren dës Viraussiicht. 

En anert wäit gemellt Beispill: Op der alljährlecher Google I/O Entwéckler Konferenz huet Google eng Virschau vun engem AI-ugedriwwenen Dermatologie Assistent Tool gedeelt dat d'Leit hëlleft ze verstoen wat mat Themen am Zesummenhang mat hirer Haut, Hoer an Neel leeft. Den Dermatologeassistent ënnersträicht wéi AI sech entwéckelt fir mat der Gesondheetsariichtung ze hëllefen - awer et huet och de Potenzial fir Viraussiicht ervirhiewt fir an den AI ze kommen no der Kritik datt den Tool net adäquat ass fir Leit vu Faarf.

Wéi Google den Tool ugekënnegt huet, huet d'Firma festgestallt:

Fir sécherzestellen datt mir fir jiddereen bauen, mécht eise Modell Faktore wéi Alter, Geschlecht, Rass an Hauttypen - vu blass Haut déi net brong ass bis brong Haut déi selten verbrennt.

Google, Benotzt AI fir Äntwerten op allgemeng Hautbedéngungen ze fannen

Awer en Artikel am Vice sot datt Google en inklusiven Datenset net benotzt huet:

Fir d'Aufgab auszeféieren hunn d'Fuerscher en Trainingsdataset vun 64,837 Biller vun 12,399 Patienten an zwee Staaten benotzt. Awer vun den Dausende vun Hautbedéngungen op der Foto koumen nëmmen 3.5 Prozent vu Patienten mat Fitzpatrick Hauttypen V a VI - déi brong Haut respektiv donkel brong oder schwaarz Haut duerstellen. 90 Prozent vun der Datebank besteet aus Leit mat enger fairer Haut, enger däischterer wäisser Haut oder enger hellbraunes Haut, laut der Etude. Als Resultat vun der partizipéierter Probe soen Dermatologen datt d'App kéint iwwer- oder Ënnerdiagnostikéiere vu Leit déi net wäiss sinn.

Vice, Déi nei Dermatologie App vu Google gouf net fir Leit mat enger däischterer Haut entwéckelt

Google huet geäntwert andeems hie gesot huet et géif den Tool verfeineren ier en et formell verëffentlecht:

Eist AI-ugedriwwen Dermatologie Assistent Tool ass d'Kulminatioun vu méi wéi dräi Joer Fuerschung. Zënter datt eis Aarbecht an der Naturmedezin gewise gouf, hu mir eis Technologie weiderentwéckelt a verfeinert mat der Inkorporatioun vun zousätzlechen Datensätz mat Daten gespend vun Dausende vu Leit, a Millioune méi kuréiert Hautfleegbiller.

Google, Benotzt AI fir Äntwerten op allgemeng Hautbedéngungen ze fannen

Sou vill wéi mir hoffen datt AI a Maschinnléiere Programmer fir dës Viraussoe korrigéiere kënnen, bleift d'Realitéit: si sinn nëmmen als gescheit well hir Datensätz propper sinn. An engem Update zum alen Programméierungsadage Dreck an/Dreck eraus, AI Léisunge sinn nëmme sou staark wéi d'Qualitéit vun hiren Datensätz vum Start. Ouni eng Korrektur vu Programméierer, hunn dës Datesätz keng Hannergronderfarung fir sech selwer ze fixéieren - well se einfach keen anere Referenzkader hunn.

Datensätz verantwortlech bauen ass am Kär vun allem ethesch kënschtlech Intelligenz. A Leit sinn am Kär vun der Léisung. 

Mindful AI ass ethesch AI

Bias geschitt net am Vakuum. Onethesch oder partizipéiert Datensätz kommen aus der falscher Approche wärend der Entwécklungsstadie. De Wee fir Biasfehler ze bekämpfen ass eng verantwortungsvoll, mënschlech zentréiert Approche ze adoptéieren déi vill an der Industrie Mindful AI nennen. Mindful AI huet dräi kritesch Komponenten:

1. Mindful AI ass mënschlech zentréiert

Vum Ufank vum AI Projet, an de Planungsstadien, mussen d'Bedierfnesser vun de Leit am Mëttelpunkt vun all Entscheedung sinn. An dat heescht all d'Leit - net nëmmen eng Ënnerdeelung. Dofir mussen d'Entwéckler op eng divers Team vu weltwäit baséiert Leit vertrauen fir AI Uwendungen ze trainéieren fir inklusiv a biasfräi ze sinn.

Crowdsourcing vun den Datensets vun engem globalen, diversen Team garantéiert datt Viraussoen fréi identifizéiert a gefiltert ginn. Déi vu variéierenden Ethnie, Altersgruppen, Geschlechter, Erzéiungsniveauen, sozio-ökonomeschen Hannergrënn, a Standuerter kënne méi einfach Datensätz gesinn, déi ee Set vu Wäerter iwwer en aneren favoriséieren, sou datt onbedéngt Viraussiicht erauskënnt.

Kuckt d'Stëmmapplikatiounen un. Wann Dir eng bewosst AI Approche uwenden, an d'Kraaft vun engem globalen Talentpool notzen, kënnen d'Entwéckler sproochlech Elementer wéi verschidde Dialekter an Akzenter an den Datensätz notzen.

E mënschlech zentréiertem Designkader vun Ufank un opzestellen ass kritesch. Et geet e laange Wee fir sécherzestellen datt d'Daten generéiert, curéiert a markéiert d'Erwaardung vun den Endbenotzer entspriechen. Awer et ass och wichteg d'Mënschen am Loop ze halen am ganzen Produktentwécklungszyklus. 

Mënschen an der Loop kënnen och Maschinnen hëllefen eng besser AI Erfarung fir all spezifescht Publikum ze kreéieren. Bei Pactera EDGE verstinn eis AI Dateprojet Teams, weltwäit lokaliséiert, wéi verschidde Kulturen a Kontexter d'Sammlung an d'Kuratioun vun zouverléissege AI Trainingsdaten beaflosse kënnen. Si hunn déi néideg Tools déi se brauchen fir Probleemer ze markéieren, se ze iwwerwaachen an ze fixéieren ier eng AI-baséiert Léisung live leeft.

Human-in-the-loop AI ass e Projet "Sécherheetsnetz" dat d'Stäerkten vun de Leit kombinéiert-an hir ënnerschiddlech Hannergrënn mat der schneller Rechenkraaft vu Maschinnen. Dës mënschlech an AI Zesummenaarbecht muss vum Ufank vun de Programmer etabléiert ginn, sou datt partizipéiert Daten keng Fondatioun am Projet bilden. 

2. Mindful AI Ass Verantwortlech

Verantwortlech ze sinn ass ze suergen datt AI Systemer fräi vu Viraussoen sinn an datt se an der Ethik baséieren. Et geet drëm ze denken wéi, firwat, a wou Daten erstallt ginn, wéi se vun AI Systemer synthetiséiert ginn, a wéi se benotzt gi fir eng Entscheedung ze treffen, Entscheedungen déi ethesch Implikatioune kënnen hunn. Ee Wee fir e Geschäft dat ze maachen ass mat ënnerrepresentéierte Gemeinschaften ze schaffen fir méi inklusiv a manner partizipéiert ze sinn. Am Feld vun Daten Annotatiounen beliicht nei Fuerschung wéi e Multi-Annotator Multi-Task Modell deen all Annotator Etiketten als separat Subtask behandelt kann hëllefen potenziell Themen ze inherentéieren an typesche Grondwourecht Methoden wou Annotator Meenungsverschiddenheeten ënner Ënnerrepresentatioune kënne sinn an kënne ignoréiert ginn an der Aggregatioun vun Annotatiounen zu enger eenzeger Grondwourecht. 

3. Vertrauenswierdeg

D'Vertraue kënnt vun engem Geschäft dat transparent an erkläert ass wéi den AI Modell trainéiert gëtt, wéi et funktionnéiert, a firwat se d'Resultater empfeelen. E Geschäft brauch Expertise mat AI Lokalisatioun fir et méiglech ze maachen fir seng Clienten hir AI Uwendungen méi inklusiv a personaliséiert ze maachen, respektéiert kritesch Nuancen an der lokaler Sprooch a Benotzererfarungen déi d'Kredibilitéit vun enger AI Léisung vun engem Land an dat nächst kënne maachen oder briechen . Zum Beispill soll e Geschäft seng Uwendunge fir personaliséiert a lokaliséiert Kontexter designen, inklusiv Sproochen, Dialekter, an Akzenter a stembaséierten Uwendungen. Op déi Manéier bréngt eng App dee selwechte Niveau vu Stëmmerfarung Raffinesséierung an all Sprooch, vun Englesch bis ënner-representéiert Sproochen.

Fairness an Diversitéit

Schlussendlech suergt opmierksam AI fir datt Léisungen op fair a divers Datensätz gebaut ginn, wou d'Konsequenzen an den Impakt vu bestëmmte Resultater iwwerwaacht a bewäert ginn ier d'Léisung op de Maart geet. Andeems mir opmierksam sinn an d'Mënschen an all Deel vun der Entwécklung vun der Léisung abegraff sinn, hëllefen mir datt AI Modeller propper bleiwen, minimal virgesi sinn, an esou ethesch wéi méiglech.

Wat denks du?

Dëse Site benotzt Akismet fir Spam ze reduzéieren. Léiert wéi Är Kommentarfaten veraarbecht ginn.