Okiem eksperta: Sztuczna inteligencja – regulacje a rynek VC

Autorem tekstu jest Mateusz Przysucha, manager inwestycyjny w NCBR Investment Fund

Wpływ unijnej ustawy dotyczącej sztucznej inteligencji (AI) na start-upy może okazać się znacznie większy niż zakładano. Planowane przepisy wiążą się bowiem z dodatkowymi obowiązkami i kosztami dla wielu firm. Powoduje to uzasadnione obawy na rynku VC.

Ankieta przeprowadzona w grudniu 2022 roku wśród 15 firm venture capital na Europejskim Forum AI wykazała, że możliwym efektem planowanych regulacji unijnych jest zmniejszenie atrakcyjności start-upów dla inwestorów. Pesymizm dotyczący prawdopodobnych skutków ustawy jest widoczny – aż 73% ankietowanych spodziewa się, że zasady te obniżą, a nawet znacznie ograniczą konkurencyjność europejskich start-upów działających w obszarze AI. Wyniki ankiety wskazują również, że taka perspektywa wpłynie na przyszłe decyzje inwestycyjne. Till Klein z AppliedAI, który przeprowadził ankietę, podkreślił, że choć niektóre firmy venture capital zapowiedziały zwiększenie inwestycji w start-upy AI z Europy, większość zdecydowała się albo na lokowanie kapitału w innych start-upach spoza sektora AI w Europie, albo na inwestowanie w start-upy AI poza granicami Europy. Prognozuje więc, że może dojść do zmiany w kierunku inwestycji, co skutkować będzie mniejszą liczbą dostępnych środków dla start-upów AI w Europie.

Ponadto, wielu inwestorów VC zapowiedziało unikanie start-upów zaliczających się do kategorii wysokiego ryzyka, wynikającego z przepisów ustawy o sztucznej inteligencji. Duża część respondentów wskazała, że będą skupiali swoje inwestycje na aplikacjach o niższym ryzyku, dlatego też dla start-upów będzie istotne, aby jasno określiły, w jakiej kategorii się znajdują, aby pozyskać inwestycje.

Obawy te są jednak wyrażane na zbyt późnym etapie, ponieważ ustawa przechodzi obecnie przez proces legislacyjny. Rada Europejska zaakceptowała wspólne stanowisko w sprawie wniosku w grudniu 2022 roku, a Parlament Europejski ma go omówić latem tego roku.

Ryzyko zbyt wysokie

Drugie badanie przeprowadzone wśród 113 start-upów, które zostało przedstawione na Europejskim Forum, różni się od oceny skutków przedstawionej przez Komisję Europejską dotyczącej ustawy o sztucznej inteligencji. Chociaż Komisja oszacowała, że 5-15% systemów zostanie zakwalifikowanych jako wysokie ryzyko, badanie wykazało, że 33% firm uważa, że ich projekty będą podlegać wysokiemu ryzyku, a kolejne 15% nie jest jeszcze pewne, gdzie ich systemy się zaklasyfikują.

Zaklasyfikowanie jako wysokie ryzyko będzie oznaczało spore wyzwania w procesie nauki i rozwijania systemów, a firmy będą musiały współpracować z władzami, aby wykazać zgodność. Będzie to nieznane terytorium dla wielu start-upów technologicznych, a znaczna liczba respondentów z ankiety wyraziła obawy, że może to zahamować ich postęp.

Pięćdziesiąt procent respondentów stwierdziło, że oczekuje spowolnienia, co nie jest zaskakujące, zważywszy na wzrost złożoności zarówno na poziomie technicznym, jak i organizacyjnym – powiedział Klein. – Niektórzy rozważają nawet przeniesienie swojej działalności poza UE, a inni sugerują, że mogą zrezygnować z prac nad sztuczną inteligencją, ponieważ staje się to zbyt trudne.

AppliedAI przyznaje, że próba obejmująca 113 start-upów jest ograniczona, jednak z drugiej strony zaznacza, że stanowią one ważny element europejskiej branży sztucznej inteligencji oraz są źródłem wielu innowacji. „Opinie od znanych małych i średnich przedsiębiorstw, a także większych firm z Europy, ukazują podobne wyzwania” – podano w raporcie z badania.

Szansa da sektora?

Niewielka liczba statystyków przewiduje, że dodatkowe regulacje nie wpłyną na sektor, a nawet przyniosą korzyści. – Niektórzy twierdzą, że wpływ będzie pozytywny, na przykład ułatwiając wyjaśnienie działania ich rozwiązania, co mogą wykorzystać jako szansę – powiedział Klein.

To samo dotyczy funduszy venture capital specjalizujących się w sztucznej inteligencji, które uważają, że regulacje te wprowadzają potrzebną dyscyplinę w sektorze. – Wpływ unijnej ustawy o sztucznej inteligencji prawdopodobnie wpłynie na nasze decyzje inwestycyjne, ponieważ naszym celem jest wspieranie założycieli w tworzeniu odpowiedzialnych zastosowań sztucznej inteligencji zgodnie z europejskimi wartościami i przepisami – powiedział Herman Kienhuis, partner zarządzający w funduszu venture capital Curiosity, specjalizującego się w sztucznej inteligencji. – Chcemy, aby nasze spółki portfelowe nie tylko dążyły do zgodności z unijną ustawą o sztucznej inteligencji, ale także wdrożyły politykę etyczną dotyczącą sztucznej inteligencji i uczyniły odpowiedzialną sztuczną inteligencję częścią DNA swojej firmy. Europejska ustawa o sztucznej inteligencji zapewnia podstawowe wytyczne w tym zakresie.

Co więcej, ekspert przewiduje, że start-upy poszukujące inwestycji nie będą miały problemów z przynależnością do kategorii wysokiego ryzyka. – Nie unikamy aplikacji z wysokim ryzykiem, wręcz przeciwnie – w przypadku takich aplikacji jeszcze bardziej istotne jest zapewnienie uczciwości i bezpieczeństwa, a zgodność z przepisami UE może stanowić ważny, unikalny punkt sprzedaży – wyjaśnił Kienhuis.

Ogólnie rzecz biorąc, Kienhuis uważa, że unijna ustawa dotycząca sztucznej inteligencji będzie korzystna dla europejskiego ekosystemu, tworząc nowy międzynarodowy standard, który może pomóc europejskim start-upom w rozwoju i zdobywaniu konkurencyjności na arenie globalnej.  – Jesteśmy przekonani, że ustalanie zasad uczciwego i bezpiecznego wykorzystania sztucznej inteligencji jest w rzeczywistości korzystne dla innowacji i biznesu, ponieważ sprzyja bardziej holistycznemu projektowaniu produktów, buduje większe zaufanie i zwiększa akceptację, a także tworzy równoprawne szanse dla firm – dodał.

Sztuczna inteligencja ogólnego przeznaczenia

Kolejnym powodem, który sprawi, że unijna ustawa o sztucznej inteligencji będzie miała szerszy wpływ na rynek niż początkowo zakładano, jest jej rozszerzenie na sztuczną inteligencję ogólnego przeznaczenia, czyli koncepcję przedstawioną w grudniowym wspólnym stanowisku Rady Europejskiej.

Sztuczna inteligencja ogólnego przeznaczenia obejmuje systemy, które wykonują różne zadania, takie jak przetwarzanie języka, rozpoznawanie obrazów i mowy, wykrywanie wzorców oraz odpowiadanie na pytania. Włączenie tych systemów w zakres ustawy przyciąga uwagę firm, które używają sztucznej inteligencji nie jako głównego elementu swojej działalności, ale jako część swoich urządzeń. Szczególnie niepokojące jest to dla firm z sektora technologii finansowych, które mogą korzystać z systemów AI do obsługi zadań drugorzędnych.

Mamy tu sprzeczność z logiką opartą na podejściu ryzyka, jakie przyjęto w ustawie o sztucznej inteligencji oraz w podejściu Komisji – powiedziała Maria Staszkiewicz, prezes European Digital Finance Association, podczas AI Forum. – Może to spowodować, że europejskie firmy i Europa jako całość zostaną odcięte od systemów, które wykorzystują sztuczną inteligencję ogólnego przeznaczenia w obszarach wysokiego ryzyka i z pewnością stworzy bardzo zróżnicowany rynek dla różnych produktów AI. Nie wiemy na przykład, jaki wpływ na rozwiązania open source będzie miała regulacja dotycząca sztucznej inteligencji ogólnego przeznaczenia.

Ekspertka wyraziła również obawy związane z propozycją Rady, że szczegóły dotyczące oceny zgodności dla sztucznej inteligencji ogólnego przeznaczenia będą opracowane przez Komisję po wejściu w życie ustawy: – To ogromna odpowiedzialność, która spoczywa na Komisji, i pytanie brzmi, czy nie powinna to być decyzja Rady i Parlamentu Europejskiego.

Rozszerzenie szerokiej gamy kategorii wysokiego ryzyka w unijnej ustawie o sztucznej inteligencji budzi również obawy w sektorze fintech, szczególnie tam, gdzie wydaje się, że regulacje dotyczące sztucznej inteligencji pokrywają się z istniejącymi już przepisami finansowymi. Jeden z przykładów to ocena zdolności kredytowej, która już jest objęta dyrektywą dotyczącą kredytu konsumenckiego i wytycznymi Europejskiego Urzędu Nadzoru Bankowego. Wprowadzenie ustawy o sztucznej inteligencji spowoduje, że wszelkie systemy wykorzystujące AI do oceny zdolności kredytowej zostaną dodatkowo poddane regulacjom i będą musiały odpowiedzieć przed kolejnym organem nadzorczym.

Firmy działające w sektorze finansowym nie tylko będą musiały ponownie ocenić, czy narzędzia do oceny zdolności kredytowej są zgodne z nowymi przepisami, ale prawdopodobnie będą także zależne od kolejnej instytucji nadzorującej przestrzeganie tych regulacji – zauważyła Staszkiewicz.

Przez cały rok będzie prowadzony lobbing na rzecz odwrócenia tych zmian w przepisach: – Mimo że pociąg już ruszył, powinniśmy wciąż starać się przekonać ustawodawców do zrozumienia specyfiki każdego sektora i obciążeń, jakie niesie za sobą kolejna ustawa, zwłaszcza dla małych i średnich przedsiębiorstw – dodała Staszkiewicz.

Opublikowano: 26 lipca 2023