Image

Halland Tech Meet –
Människocentrerad AI


Den 13 maj 2020 anordnades Halland Tech Meet, ett digitalt evenemang som samlar företagsledare och organisationer i Halland som hittat nya sätt att agera i den rådande situationen. Över 200 personer anmälde sitt deltagande till det digitala arrangemanget. I samtalen medverkade bland andra r360’s styrelseordförande Ludvig Granberg, Lisa Gramnäs från Gramtec Development. Pontus Wärnestål, universitetslektor vid akademin för informationsteknik på Högskolan i Halmstad och Malin Kjällström från Connect Väst/Gothenburg Tech Week.

Vi har uppdaterat med videoinspelningen från sessionen och era kloka frågor och inspel som rörde Pass 1 – människocentrerad artificiell intelligens här.

Frågor från publiken på Halland Tech Meet om Människocentrerad AI

Vilken typ av jobb ersätts med robotar?

Det korta (men förenklade) svaret är att de jobb som är monotona och repetitiva kan ersättas. Men det är inte helt sant, eftersom en hel del sådana jobb innehåller moment som vid närmare eftertanke inte kan utföras av robotar. Exempelvis har det visat sig att detaljplock på ett lager (små oregelbundna former och paket) utförs snabbare och säkrare av människor, medan större lagerjobb (som att identifiera och optimera lastning och lossning av hela pallar) utförs bättre av autonoma truckar. Så ett lite utförligare svar blir att det beror på, men att en människocentrerad approach går ut på att utföra uppgiftsanalys och reda ut hur AI + människan kan förstärka varandra och arbeta tillsammans. Dessutom måste man vara noga med om man menar “AI” i en mer generell mening som kan hjälpa till med kognitivt arbete, eller verkligen just robotar (som ju är fysiska och hjälper till med fysiskt arbete).

Det är också intressant att ifrågasätta konventionella uppfattningar om vad som är lämpligt för AI/robotar jämfört med människor. En vanlig uppfattning är exempelvis att kreativa uppgifter (t ex konstnärligt arbete) och empatiska uppgifter (t ex inom vård och omsorg) är lämpliga för människor. Men man har visat att AI kan skapa både musik och bildkonst som skattas mycket högt av konstkännare, liksom terapeutiska effekter hos patienter som fått interagera med interaktiva AI-assistenter… Nyckeln ligger som sagt i att vi snarare bör se AI som ett sätt att komplettera och förstärka, snarare än att automatisera och ersätta. https://www.nytimes.com/1997/11/11/science/undiscovered-bach-no-a-computer-wrote-it.html (Redan 1997 genererades “Bach-musik” som lurade musikkännare…)

Om vi ska ge några mer konkreta exempel så finns det prognoser som menar att fotomodeller, nyhets- och väderankare är exempel på yrken som helt kan ersättas av AI.

Se exempelvis:
Genererade AI-modeller: https://youtu.be/8siezzLXbNo 
Nyhetsankare: https://youtu.be/Jm68C12QXV4 
Soul Machines hyperrealistiska assistenter: https://youtu.be/t_hQY7fMtpU
AI-influenser på Instagram: https://www.instagram.com/lilmiquela/?hl=en


En chattrobot, hur mycket AI ligger det bakom en sådan lösning?

Det beror helt på. Vissa chatbotar är helt skriptade och innehåller inte särskilt mycket “AI”. Ibland använder de sig av färdiga språkpaket som hjälper till att tolka inmatad text. Denna tolkning kan vara alltifrån enkel nyckelordsidentifiering till komplett grammatisk parsning eller avancerad språkmodell som är upptränad för specifika domäner (t ex sjukvård). Om interaktionen är talad (t ex som Siri eller Alexa), så är själva taligenkänningen baserad på AI-modeller. Vad som sedan händer då ljudströmmen gjorts om till en textsträng kallas för dialogmodellering och den kan också ha olika grad av AI i sig. Alltifrån enkel regelstyrd dialogträd till flexibla planbaserade dialogmodeller som klarar av att hantera “hopp” i konversationen och kan återuppta underdialoger. Det senare är dock mycket sällsynta i kommersiella applikationer. (Pontus doktorsavhandling handlar om exempelvis just om mixat initiativ mellan användare och AI-agent och undersöker hur personalisering av sådana dialogmodeller kan gå till och hur de upplevs.)

Så, summa summarum: bara för att interaktionsmodellen är “chat” och använder naturligt språk-yttranden behöver det inte betyda att det finns särskilt mycket AI i någon egentlig mening.


Vilka nya roller/personer/konsulter krävs en organisation/företag framöver för att dra nytta av AI och arbeta med datadrivna processer/beslut på ett smartare sätt?

Svårt att säga vilka exakta roller som krävs i en organisation framöver, när det gäller expertis kan det vara lättare att tänka:

  • Någon som känner till grunderna för dataanalys/maskininlärning. Du kan exempelvis anställa eller utbilda din befintliga personal med hjälp av onlinekurser.
  • Någon som känner till företagets processer och kan bestämma/prioritera vilka processer som kan dra nytta av datadrivna lösningar, samt vilka förbättringar som skulle ”löna sig”.
  • Någon som förstår dina kunder och tjänster och kan hjälpa till att utforma metoder för datainsamling samt datadrivna tjänster efter dem behov som finns, exempelvis en UX designer.
  • Alla dessa kompetenser måste arbeta tillsammans så iterativt som möjligt.

Mitt förslag är att när ni väl har ett mål för vad ni vill uppnå i organisationen är det lättare att avgöra vilken expertis som behövs. Ha då i åtanke att en masterstudent inom data mining skulle kunna framställa vissa modeller som en del av sitt avhandlingsarbete om det finns ett tydligt mål och data.


Hur är sk generativ design där människan sätter ett framework och där AI ger en mängd förslag på lösningar inom “frameworket”. Specialister behövs för att välja och utvärdera men bulken görs av AI.

Detta svarade vi på delvis under samtalet, men i korthet knyter det an till att en människo-centrerad approach inbegriper att modellera så kallat “hybrid”-arbete där vi ser AI och människa som delar av samma arbetsflöde. Istället för att AI automatiserar och ersätter så kompletterar och förstärker AI:n människans uppgifter. Exempel på generativ design finns inom arkitektur där en modell är tränad på tusentals planlösningar och skisser. Sedan, givet vissa parametrar som arkitekten sätter, kan den generera en mängd förslag som arkitekten sedan kan använda sin expertis för att kurera och modifiera. Ett exempel på hur detta går till finns här: https://vimeo.com/showcase/4991875/video/323475301


Vilka etiska dilemman ser ni med människocentrerad AI?

  • How to handle sensitive information. AI requires data, in a digital format, to be stored and transferred. The data is often stored on the cloud for ease of access, and creates vulnerability, especially when the data is sensitive and valuable. Humans might not be the best at keeping secrets either. Just like we have procedures in place to limit how people share information, we have to put procedures in place that limit how machines share information.
  • What to do about predictions. Consider the movie “Minority Report” where the police started arresting people that were “going to” commit a crime because of a prediction by an oracle. AI prediction systems are in effect an oracle that tries to determine what will likely happen with a certain level of confidence. When the events they are trying to predict are of a sensitive nature then the effects of either being wrong or being right must be considered and contingency plans must be put in place.
  • Bias and inclusion. Bias is a source of error. Humans are extremely biased in their decision making process as well. If you are interested in this topic I recommend the book “Thinking, Fast and Slow” by Daniel Kahneman. Machines are also biased by the data that they are trained on. If there are not enough examples covering the entire distribution of inputs, say not enough women represented in a sample, then the AI will not be good at modeling those missing elements. No model is without bias, but by being aware of the model’s limitations, we can work towards an acceptable compromise.
  • How to handle errors. Both humans and machines can be wrong in their decisions. In the case of a medical error, for example, there is insurance. If a doctor makes the wrong diagnostic he may be sued for malpractice. What happens if an AI agent makes the wrong diagnostic? You may also consider that blood tests and other medical tests are not 100% accurate and there is always a risk. The way we deal with this situation today is we assign someone to be ultimately responsible for the decision, the doctor, the lab technician, or the person supervising the AI, for example. However, the law needs to be extended to include certain use-cases where the “supervisor” is not clearly defined.

Utbildningslänkar:

Elements of AI (online reading course, LiU): https://www.elementsofai.com/

AI for Everyone (online video course, Coursera): https://www.coursera.org/learn/ai-for-everyone

Human-Centered Machine Learning (podcast, HH): http://dap.hh.se

Machine Learning Crash Course (online video course, Google): https://developers.google.com/machine-learning/crash-course/ml-intro

Högskolans samlingsida: https://www.hh.se/samverkan/kompetensutveckling/utbildning-inom-informationsteknologi-for-yrkesverksamma.html

inUse kurs Human-Centered AI: https://www.inuse.se/academy/human-centered-ai/


Halland Tech Meet – Pass 2
Halland Tech Meet – Pass 3

Image

Vad är AI.m 2.0? Här kan du läsa mer om Högskolan i Halmstad och HighFives nya satsning där bl.a 
m
änniskocentrerad AI står i fokus.

Image

För att det här projektet ska vara möjligt har vi kopplat upp oss mot en rad spännande personer med olika kompetenser och erfarenhetsbakgrund.

Image

Här samlar vi intressanta artiklar, spaningar och utbildningar inom artificiell intelligens och tjänsteinnovation.

Image

Ett antal bolag har redan genomgått vår process och här berättar dem hur det var och vad de fick ut av sin medverkan.