Femårig satsning skal bringe dansk AI-lydforskning til nye højder
Forskningscentret CASPR – Centre for Acoustic Signal Processing Research - på Aalborg Universitet modtager for tredje gang en bevilling fra William Demant Fonden for at forske i nye løsninger inden for AI og akustisk signalbehandling. Over fem år vil centret især fokusere på machine learning og kunstig intelligens for at udvikle helt nye algoritmer og metoder, der kan forbedre høreapparaters ydeevne.
Fremtiden for CASPR er sikret
William Demant Fonden donerer over en femårig periode 14,75 millioner danske kroner ud af centrets samlede bevilling på 25,7 millioner danske kroner. Formålet er at undersøge, hvordan nye AI- og machine learning-metoder kan skabe mere robuste høreoplevelser i støj, gøre tale lettere at forstå med mindre anstrengelse og udvikle teknologier, der kan aflæse brugernes intentioner og fremhæve den stemme, der er vigtigst for dem.
Det er tredje gang, William Demant Fonden donerer midler til centret. Første gang var i 2016.
Lars Nørby Johansen, bestyrelsesformand for William Demant Fonden, fortæller hvorfor Fonden igen har valgt at støtte forskningscenteret:
“Vi har valgt at støtte CASPR for tredje gang, fordi centret igen og igen demonstrerer, hvordan avanceret AI og akustisk signalbehandling kan flytte grænserne for fremtidens høreteknologi. Deres forskning skaber ikke bare nye algoritmer, men reelle muligheder for mere robuste og forståelige høreoplevelser i virkelige lydmiljøer. CASPR leverer viden og løsninger, der kan få afgørende betydning for mennesker med høretab - og det er netop den slags langsigtet impact, vi ønsker at investere i.”
Robuste høreoplevelser
Gennem centrets 10-årige levetid har fokus generelt været på at udvikle avancerede signalbehandlings- og AI-metoder, der kan forbedre forståelighed og lytteoplevelser for mennesker med høretab.
I denne bevillingsperiode skal centrets projekter mere specifikt dykke ned i, hvordan avancerede AI-metoder kan skabe mere robuste høreoplevelser i hverdagen ved at håndtere svære lydmiljøer, gøre tale lettere at forstå med mindre anstrengelse og automatisk fremhæve den stemme, brugeren ønsker at fokusere på.
Forskningsleder Jesper Jensen uddyber, hvorfor man netop har valgt at have dette fokus:
”AI er et område, som er i rivende udvikling, både i forhold til hardware-platforme, som tillader eksekvering af AI-algoritmer i små kropsbårne enheder (som fx høreapparater), i forhold til typer af sensorer, man kunne forestille sig at bygge ind i sådanne enheder, og i forhold til AI-metoder, som man kunne forestille sig at udvikle eller anvende. Vi mener simpelthen at være i stand til at løse problemer for høreapparatbrugeren, som hidtil har været umulige at løse.”
Den samlede viden skal styrkes
Med den nye bevillingsperiode skal centret også arbejde mere systematisk med at omsætte forskningsresultaterne til metoder og modeller, der kan testes i realistiske lydmiljøer. Det omfatter blandt andet udvikling af prototyper, forskningsdemonstrationer og testmiljøer, der gør det muligt at evaluere algoritmerne i situationer, som minder om dem, brugerne møder i deres hverdag.
Arbejdet skal samtidig styrke den samlede viden om, hvordan avanceret signalbehandling og kunstig intelligens kan anvendes i små, energibegrænsede enheder. Det er et område, hvor der stadig er behov for grundlæggende forskning, og hvor CASPR i den kommende periode får en central rolle i at skabe det videnskabelige grundlag for fremtidens høreteknologi.
CASPR’s tre forskningsspor (2026–2031)
Unlimited Listening
Forskning i robuste AI-modeller, der kan håndtere komplekse og skiftende lydmiljøer, så brugere kan føre samtaler under forhold med støj, mange talere eller rumklang. Fokus er på at udvikle metoder, der fungerer stabilt i virkelighedens lydscenarier.
Beyond Audibility
Undersøgelser af, hvordan tale kan gøres lettere at forstå. Her arbejder centret med generative lydmodeller og sprogteknologi, der kan forbedre tydelighed og reducere lytteanstrengelsen uden at ændre talerens stemme eller betydningen af det sagte.
Intention Awareness
Udvikling af teknikker, der kan identificere, hvilken taler brugeren ønsker at fokusere på. Sporene omfatter metoder til at udtrække den relevante stemme i samtaler med flere talere blandt andet ved hjælp af signaler som blikretning, hovedbevægelser eller akustiske mønstre.