Czy sztuczna inteligencja zabierze nam pracę? O AI opowiadają eksperci z fundacji Law4Tech, którzy będą uczyć studentów sądeckiej WSB-NLU

Czy sztuczna inteligencja zabierze nam pracę? O AI opowiadają eksperci z fundacji Law4Tech, którzy będą uczyć studentów sądeckiej WSB-NLU

Utrata pracy, strajk aktorów w Hollywood podkreślający zagrożenia wynikające z AI, podrabianie czyjegoś głosu, chat GPT… w głowach ludzi kłębią się myśli i mnożą wątpliwości związane z rozwojem sztucznej inteligencji. Czy obawy związane z szybkim rozwojem technologii  wykorzystującej sztuczną inteligencję są uzasadnione? O pozytywnych jak i negatywnych stronach tego zjawiska opowiada trzech ekspertów z fundacji Law4Tech: Łukasz Łaguna (prawo pracy, cyberbezpieczeństwo), Jakub Jurowicz (prawo własności intelektualnej i cywilnej w branży IT) oraz Oktawia Sepioł (prawo bankowe, startupy, branża IT).

Jak w ogóle powinniśmy rozumieć pojęcie: AI?

ŁŁ: Na ten temat każdy z nas mógłby napisać doktorat, jednak aby przedstawić to zagadnienie w skrócie to AI jest systemem, który zastępując człowieka, podejmuje autonomiczne decyzje bez jego jednoznacznej ingerencji. Można też powiedzieć, że sztuczna inteligencja to zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność. Dlatego też zdaniem wielu jest to system rewolucyjny. Decyzje podejmowane przez system mogą być prawidłowe bądź nawet lepsze od tych jakie podejmuje człowiek, a które oparte są na podstawie algorytmów i danych, które już w tym systemie funkcjonują. Oczywiście, na etapie, na którym jesteśmy, najczęściej człowiek udostępnia dane AI. Jednak w przyszłości ten system może potrafić w sposób samodzielny je pobierać, czy to z Internetu czy innych źródeł. W ten sposób staje się on jeszcze bardziej autonomiczny i tym samym nie potrzebuje człowieka do swojego funkcjonowania. Z tym wiążą się zarówno zagrożenia jak i szanse. Jeżeli mówimy o zagrożeniach, to tutaj rysują się dwie grupy badaczy. Upraszczając, jedna mówi o tym, że AI jest największą szansą rozwoju w dziejach ludzkości bo zastąpi ludzi w trudnych pracach, dzięki czemu ludzkość przejdzie na kolejny poziom rozwoju. Druga grupa badaczy mówi, że AI nas zastąpi bo uzna, że człowiek jest niepotrzebnym elementem tej rozgrywki i jedynie zawadza w rozwoju AI. 

Gdy patrzycie Państwo na rozwój technologii tak silnie związany ze sztuczną inteligencją, to jesteście Państwo nastawieni raczej optymistycznie czy jednak podchodzicie do tego z cieniem obawy?

JJ: Wydaje mi się, że każde z nas, zajmując się w ramach fundacji różnymi działami prawa, obserwuje jak sztuczna inteligencja na ten moment, w pewnych aspektach stanowi jeszcze ciekawostkę, a w innych staje się coraz bardziej rozpędzoną maszyną, która ułatwia pracę i znacznie podwyższa efektywność. Wydaje mi się, że każdy z nas jest entuzjastą AI . Oczywiście dostrzegamy zagrożenia, natomiast co do zasady wydaje nam się, że jest to coś, co powinniśmy rozwijać i co niesie ze sobą więcej pozytywów niż zagrożeń. AI jak każde narzędzie, może zostać wykorzystane źle, ale może być wykorzystane również dobrze. Jak to zrobimy – zależy od pewnych regulacji.

OS: Dla prawników rozwój sztucznej inteligencji i technologii w ogóle to ogromne wyzwanie. Barierą jest wiedza techniczna, którą niewielu z nas posiada w wystarczającym zakresie, by być w stanie pracować nad prawną stroną różnorodnych systemów informatycznych. Jednocześnie już powstają pierwsze regulacje dedykowane sztucznej inteligencji i oczywiście innym technologiom. Stąd w firmach, które je stosują, rośnie zapotrzebowanie na prawników specjalizujących się w tym temacie. Prawnicy muszą zatem samodzielnie się dokształcać w zakresie wiedzy technicznej. Prawo jest w końcu nakładką na rzeczywistość – żeby operować prawem, musimy bardzo dobrze rozumieć rzeczywistość. Nie jesteśmy w stanie pracować z prawem nowych technologii, w momencie gdy nie rozumiemy systemów, które to prawo reguluje. Coraz wyraźniej widać te wyzwania, które pojawiają się właśnie na styku wiedzy technicznej i prawa. Dobrym przykładem jest proces dowodowy, który stanie się bardzo trudny w sprawach opartych na skomplikowanych systemach, stosujących algorytmy nie do końca rozumiane nawet przez ich twórców. Na tym etapie, UE tworzy pierwsze propozycje rozwiązania tego typu problemów, oparte na zastosowaniu w procesie dowodowym różnych domniemań. Oznacza to, iż w przypadku ogromnych trudności w wykazaniu pewnych kwestii, sądy będą miały możliwość je założyć z góry. To wszystko jednak jest na etapie dyskusji powszechnej. My sami przygotowujemy się do tych trudności już teraz dokształcając się w zakresie technologii. Po to też powstała ta fundacja. Każdy nowoczesny prawnik specjalizujący się w prawie nowych technologii, na pewnym etapie będzie musiał posiadać wiedzę techniczną, a nie tylko z zakresu prawa.

ŁŁ: Cały świat dzisiaj rozmawia o sztucznej inteligencji czyli o systemach, których do końca nie rozumie. Nie tylko prawnicy ale i inżynierowie, którzy badają, czy pracują nad systemami sztucznej inteligencji, nie są wstanie wytłumaczyć nam jak ona jednoznacznie działa. Wiemy jak te dane jej przesyłać, wiemy mniej więcej co nam rekomenduje. Jesteśmy w stanie ocenić czy te rekomendacje są właściwe czy niewłaściwe. Jednak sam proces działania na tak wysokim poziomie nie jest do końca zrozumiały. Wyobraźmy sobie, że te systemy będą naszą codziennością, że pewne decyzje podejmuje maszyna bądź system, których decyzji nie jesteśmy w stanie wytłumaczyć. Co w sytuacji gdy ta decyzja będzie dla nas wiążąca? Zgadzamy się na nią? Czy chcemy mieć jakieś możliwości jej weryfikacji, odwołania się od niej? W unijnym Akcie o Sztucznej Inteligencji pojawiają się pewne mechanizmy weryfikowania czy też mechanizmy nakładania obowiązków tłumaczenia powziętych przez AI decyzji na jej dostawców. Brzmię może trochę futurystycznie, ale do tego to się sprowadza – czy wiemy na jakiej podstawie jakaś decyzja została podjęta i co my z tym zrobimy. 

JJ: Nie chodzi tylko o kwestie oddania systemom sztucznej inteligencji np. wyrokowania w sądach, ale mówimy też o sytuacjach podejmowania pewnych decyzji w przedsiębiorstwach – choćby dotyczących kadry pracowniczej gdy jakieś osoby musimy w pewnych procesach zaakceptować lub odrzucić. 

Coraz więcej ludzi z trwogą mówi o tym, że sztuczna inteligencja zabierze nam wszystkim pracę. Czy są to słuszne obawy i jakie zawody, branże są narażone na to w pierwszej kolejności?

ŁŁ: Nie mam przekonania, że AI zabierze ludziom pracę. W mojej ocenie do tego nie dojdzie. Rozwój AI stworzy nowe zawody, których jeszcze nie znamy i których nie jesteśmy w stanie przewidzieć. Dla przykładu, może to być inżynier do spraw AI, czyli stanowisko, którego dzisiaj jeszcze nie ma, a na pewno nie powszechnie. Natomiast AI na pewno zastąpi nas przy innych pracach. Nie ma tutaj jednoznacznej odpowiedzi, ale dzisiaj już widzimy obrazy tworzone przez AI, czyli jest zagrożenie, że sztuczna inteligencja zastąpi artystów, muzykę tworzymy przez AI, pisma procesowe, czyli ryzyko zastąpienia prawników, teksty tworzone przez systemy sztucznej inteligencji czyli ryzyko zastąpienia dziennikarzy, powstają diagnozy wydawane na podstawie AI, czyli ryzyko zastąpienia lekarzy, ale należy zwrócić uwagę na inną kwestię – oprócz możliwości technologicznych, czyli możliwości rozwoju tych systemów, mamy bariery społeczne. Czy zaakceptowalibyśmy wyrok skazujący nas na 10 lat pozbawienia wolności jeżeli wydałby go system komputerowy, który nie do końca wiemy jak działa? Zapewne nie. Przenieśmy to na inną płaszczyznę. Czy zaakceptowalibyśmy decyzję pracodawcy o zwolnieniu nas, jeśli ta decyzja podjęta zostałaby przez sztuczną inteligencję? Warto tutaj pamiętać, że oprócz płaszczyzny rozwoju technologii, mamy płaszczyznę społeczną, która będzie nam, w mojej ocenie, hamowała wdrażanie możliwości technologicznych, które są dostępne. Nie akceptujemy decyzji, których nie rozumiemy i słusznie. To jest nasz instynkt, dlatego te dwie płaszczyzny musimy mieć zawsze na uwadze.

JJ: W tym kontekście warto zaznaczyć, że kwestia tego, że rozwój jakiejś technologii zabiera pracę, jest aktualna przez niemal całą historię ludzkości. Wynalezienie silników parowych zabrało pracę ludziom, którzy wcześniej te prace wykonywali ręcznie w manufakturach, wynalezienie komputerów zabrało pracę ludziom, którzy obliczali lub przepisywali coś ręcznie… Rozwój każdej technologii sprawia, że pewne zawody zanikają a inne się rozwijają. Wydaje mi się, że tak samo będzie ze sztuczną inteligencją.

Końcem lipca rozpoczął się strajk aktorów i scenarzystów w Hollywood, który powiązany jest poniekąd z tematem sztucznej inteligencji. Drugoplanowym aktorom proponowane były umowy dotyczące wykorzystania ich wizerunku w CGA i Netflix. Rozpoczyna się poszukiwanie specjalistów w tym zagadnieniu, zarobki aktorów z platform streamingowych nie są współmierne do wykonanej pracy. Aktorzy więc wychodzą i głośno mówią o zagrożeniach jakie płyną ze sztucznej inteligencji. Co nam to wydarzenie mówi  o AI i o tym jak zmieniać się będzie system pracy? 

JJ: To wydarzenie porusza kilka problemów. Kwestia wykorzystania sztucznej inteligencji w filmach wiąże się z szeroko pojętym zjawiskiem deepfake’u, czyli np. w dużym uproszczeniu – nakładaniem przez sztuczną inteligencję twarzy jakiegoś aktora, który już dawno nie żyje albo znacznie posunął się w latach, do postaci występującej w nowym filmie. Taką sytuację mieliśmy w przypadku ostatnich produkcji ze świata Gwiezdnych Wojen. Skoro więc możemy odtworzyć postacie pierwszoplanowe, których czas wizyjny jest bardzo długi, i nie gryzie nas to w oczy, to dlaczego mielibyśmy nie odtwarzać (z perspektywy producentów oszczędzając przy tym koszty) postaci tła? Tutaj obawy aktorów są w dużym stopniu uzasadnione, choć to pewnie jeszcze pieśń przyszłości. W pewnym momencie jeśli będziemy w stanie wytwarzać tło filmów w oparciu o systemy sztucznej inteligencji, to najprawdopodobniej oni w pierwszej kolejności stracą pracę. Z Technologię AI deepfake możemy wykorzystywać w sposób pozytywny, np. znacznie zwiększając swoje możliwości w produkcjach filmowych – np. wracając do postaci, których w normalnym stanie rzeczy, nie moglibyśmy już przywrócić do życia tutaj pojawia się jednak pytanie o kwestie etyczne i umowne – jeżeli aktor, który za życia wyraził zgodę na rozpowszechnianie swojego wizerunku już nie żyje, to czy nadal możemy wykorzystywać w ten sposób jego wizerunek? Deepfake generowany przy pomocy AI może być jednak wykorzystywany w sposób naganny  Za przykład niech posłużą coraz głośniejsze  przypadki wykorzystywania czyjejś twarzy w przerobionych materiałach pornograficznych. Podsumowując, z wykorzystaniem tej technologii, jak z każdego innego narzędzia, mogą wypływać rzeczy pozytywne jak i negatywne. Natomiast spinając to klamrą rzeczywistości prawnej – sam fakt, że sztuczna inteligencja wkracza do branży kreatywnej, pomimo protestów (najprawdopodobniej uzasadnionych) części środowiska, na ten moment nie wydaje się zagrożeniem dla artystów/wykonawców. W przewidywalnej przyszłości zagrożenia te mogą się jednak zmaterializować.

Pozostając w temacie AI, branży kreatywnej i własności intelektualnej, trzeba przede wszystkim wyjść od tego, że na gruncie polskiego porządku prawnego ochronie prawnej podlega utwór. Utworem rozumieniu prawa autorskiego jest indywidualny i twórczy przejaw działalności człowieka. W sytuacji kiedy jakiś „wytwór” (celowo posługuje się innym pojęciem niż „utwór”), jest utworzony przez sztuczną inteligencję, nie podlega on (co do zasady – i w zależności od przyjętego poglądu) ochronie autorsko-prawnej. Co prawda, są różne koncepcje np. co w sytuacji gdy sztuczna inteligencja jest wykorzystywana w procesie tworzenia przez człowieka jako narzędzie? Wyraźnie musimy wyodrębnić te dwa obszary. W sytuacji, w której wydaję np. chatowi GPT albo innemu systemowi komendę brzmiącą ,,stwórz  krótki wierszyk w stylu Wisławy Szymborskiej”, to w tej sytuacji, gdy system otrzymał bardzo mało twórczych wytycznych, nie mogę powiedzieć, że to co zostanie wygenerowane ma charakter twórczy i indywidualny. Nie jest to także przejaw twórczości człowieka. System coś stworzy, mamy jakiś efekt, ale jest to właśnie wytwór – a nie utwór – i nie podlega on ochronie prawnoautorskiej. Należy do domeny publicznej, czyli każdy może go wykorzystać, zabrać, a ja jako ktoś, kto „spowodował” stworzenie tego wytworu wydając proste polecenie generatywnemu systemowi AI, nie mogę nikomu zabronić korzystania z tego wytworu. Natomiast ta kwestia jest trochę inna w sytuacji kiedy sam  tworzę coś bardziej skomplikowanego – np.  kod komputerowy, kolaż plastyczny – i tylko elementy tego co powstaje stworzone są przy pomocy sztucznej inteligencji. Co więcej, elementy te są przez AI generowane w oparciu o moje szczegółowe komendy. Wtedy, jeżeli sztuczna inteligencja jest tylko narzędziem, zaczyna się dyskusja, czy to już jest utwór czy jeszcze nie. Czym bowiem w takiej sytuacji różni się wykorzystanie przez twórcę AI od np. oprogramowania graficznego typu photoshop?

ŁŁ: Niech ten przykład hollywoodzki posłuży nam również jako wyjście do pokazania zagrożeń w naszym życiu codziennym. On jest nośny, ale skoro możemy zastąpić człowieka w filmie hollywoodzkim i stworzyć jego podobieństwo, to to samo może się zdarzyć w naszym codziennym życiu. Wspomniany deepfake może być wykorzystywany w wielu różnych kontekstach. Trwa kampania wyborcza, co w sytuacji gdy na trzy dni przed wyborami ukaże się filmik z jednym z liderów którejś z partii w sytuacji kompromitującej. Nie będzie czasu na  weryfikację. Oczywiście, po miesiącu, dwóch, dojdziemy do tego, że to był fake, ale to nie ma znaczenia, bo to już wpłynie na wybory. Drugi przykład to nasz głos. Ktoś go może nagrać i na jego podstawie stworzyć odrębne teksty, które wydaje się, że konkretna osoba mówi. Były już takie sprawy, gdzie ktoś wykorzystując cudzy głos dzwonił do kogoś i robił tzw. oszustwo na wnuczka – wykorzystując czyjś głos prosił członka rodziny o pieniądze. Szereg zagrożeń życia codziennego może być ukazanych na tym przykładzie – od wykorzystania wizerunku po wykorzystanie głosu.

JJ: Od prawie dwóch lat trwa wojna w Ukrainie. Wszyscy pamiętamy pierwsze dni, gdy jeszcze nie wiedzieliśmy czy Kijów się obroni. Miał wtedy miejsce pewien incydent z wykorzystaniem AI. Otóż kilka dni po wybuchu wojny został  przez Rosjan wygenerowany deepfake z użyciem przemówienia, wizerunku i głosu prezydenta Wołodymyra Zełenskiego, który wzywał do kapitulacji jednostek wojskowych walczących po stronie Ukrainy. Wyobraźmy sobie, że nagranie to zostało rozkolportowane i przebiło się do świadomości społecznej walczących stron. To mogło skończyć się absolutną katastrofą. Wszyscy zdajemy sobie sprawę z tego, że obrona Kijowa wytrzymała w dużej mierze dlatego, że prezydent został w kraju i nie wybuchła panika.  Jak widać, nieodpowiednie wykorzystanie AI może nieść ze sobą ogromne, polityczne konsekwencje – co tylko podkreśla skalę potencjalnego zagrożenia.

OS: Należałoby jeszcze te przykłady podsumować ze strony prawnej. Problemem nie jest to, że AI dokonuje tych nadużyć. Do tej pory takich nadużyć dokonywali ludzie i w prawie mieliśmy narzędzia, by w się przed nimi bronić. Sytuacja była łatwa, bo w przypadku dokonania nadużycia przez człowieka, można było łatwo mu taką odpowiedzialność przypisać i otrzymać ewentualne odszkodowanie, chociażby na gruncie praw osobistych. Natomiast w przypadku AI występuje ogromna trudność z przypisaniem takiej odpowiedzialności. Czy powinna odpowiadać osoba, która wyraziła pierwotnie zgodę na wykorzystanie swojego wizerunku? Czy może twórca AI? Czy ktoś, kto wydał AI polecenie prowadzące do powstania nadużycia? Nie ma odpowiedzi na te pytania, co świadczy o tym, żę prawo obecnie nie ma skutecznych mechanizmów obrony przed nadużyciami wykorzystującymi AI.

W takim wypadku jak przeciętny, „szary” obywatel może bronić się przed zagrożeniami wynikającymi z użytkowania sztucznej inteligencji?

OS: Myślę, że powstanie coraz więcej będzie mechanizmów prawnych, które pozwolą nam dostosować obecne instytucje prawa do AI. Przykładem takiego powolnego dostosowywania jest narzucanie przejrzystości w stosowaniu systemów sztucznej inteligencji. Powszechnie mówi się o tym, że systemy informatyczne oparte na algorytmach uczących się stanowią tzw. black box mechanism. Oznacza to, że nawet twórca takiego programu, nie jest do końca w stanie zrozumieć podstaw podejmowanych przez dany system decyzji. Prawo próbuje nieco odwrócić tę tendencję i coraz częściej narzuca przedsiębiorstwom wykorzystującym sztuczną inteligencję konieczność zadbania o przejrzystość procesów. Dobrym przykładem jest kwestia decyzji kredytowych. Nie tak dawno weszły przepisy, które pozwoliły bankom na wykorzystywanie zautomatyzowanego profilowania w procesie wydawania takich decyzji. Bank może to jednak zrobić pod warunkiem informowania klienta o podstawach podjętej decyzji. Sprawia to, że administrator takiego systemu musi utrzymać proces w formie na tyle przejrzystej, aby w razie potrzeby taką informację można było przedstawić. Oczywiście, na ten moment banki nie wykorzystują bardzo skomplikowanych systemów sztucznej inteligencji do podejmowania takich decyzji, ale prawo już kładzie bardzo duży nacisk na przejrzystość wszelki zautomatyzowanych, cyfrowych procesów. Z tego względu sądzę, że prawo będzie coraz bardziej umożliwiało wykorzystanie sztucznej inteligencji wszelkim podmiotom, które będą chciały z niej skorzystać, ale pod warunkiem zachowania przejrzystości i kontroli nad systemem. 

W Polsce z chatu GPT może korzystać każdy. Czy więc należy regulować w jakiś sposób dostępność do AI? Jak Państwo patrzycie na tę kwestię?

ŁŁ: Tutaj też obecnych jest kilka modeli. UE przyjęła model regulacji w odróżnieniu od USA i Chin. Unia obecnie pracuje nad wdrożeniem AI Actu, czyli rozporządzenia odnośnie sztucznej inteligencji. Ma ono regulować te systemy nakładając obowiązki na dostawców sztucznej inteligencji. Ma nam również jako szarym ludziom dawać jakieś możliwości działania. W mojej ocenie model europejski jest prawidłowy z punktu widzenia ochrony i wolności jednostki bo daje nam jakieś mechanizmy weryfikacji tych systemów. Co do chatu GPT, faktycznie obecnie nie ma tych dedykowanych ram prawnych, ale to nie oznacza, że nie ma przepisów odnoszących się do takich systemów. Rozporządzenie unijne zapewne zacznie obowiązywać za dwa lata. Należy pamiętać, że prawo, a zwłaszcza legislacja na poziomie unijnym, trwa długo. Żeby coś wprowadzić na poziomie unijnym potrzebujemy często kilku lat. Może słusznie bo te przepisy są wtedy przemyślane i są pomyślane tak aby nie uległy dezaktualizacji. Będą one na pewnym poziomie ogólności, ale to też dobrze. Ta technologia jest na tyle szybko rozwijająca się, że wszelkie kazuistyczne rozwiązania byłyby nieaktualne już po krótkim czasie. 

OS: Ten sam dylemat towarzyszył nam w publicznej dyskusji w UE przed wdrożeniem RODO. Wszyscy zastanawiali się, czy jest sens tak mocno regulować przetwarzanie danych osobowych. To przecież mogło spowolnić naszą gospodarkę i sprawić, że byłaby ona niekonkurencyjna w porównaniu do gospodarek azjatyckich, gdzie takich regulacji wtedy nie było. Wiele osób obawiało się, że wpłynie to niekorzystnie na UE, szczególnie z ekonomicznego punktu widzenia. Okazało się jednak, że europejscy przedsiębiorcy udźwignęli nowe obowiązki w zakresie danych osobowych. Natomiast gospodarki azjatyckie zaczęły regulować swoje prawo dotyczące danych osobowych, w sposób podobny do RODO. Tak samo, za naszym przykładem poszło także USA. Okazuje się więc, że europejskie podejście do danych osobowych zostało uznane w wielu miejsca na świecie. Podobna sytuacja może zaistnieć z systemami sztucznej inteligencji. Na początku nowe regulacje będą pewnie uważane za rygorystyczne, ale z czasem większość gospodarek powinna również pójść ścieżką regulowania tego rodzaju technologii.

Czy ten dość prężny rozwój AI spowodowany może znużeniem i poczuciem, że żyjemy przecież w erze rewolucji technologicznej, a mimo to nie wydarzyło się za naszego życia nic wielkiego? Przecież nie mamy latających samochodów. Oczywiście dzieje się dużo, ale nie jest to coś takiego, co obserwujemy w filmach. 

ŁŁ: Wydaje mi się, że nie jest to spowodowane znużeniem ale naturalną chęcią dążenia do przeskoku cywilizacyjnego. Myślę, że  rozpowszechnienie systemów sztucznej inteligencji w życiu codziennym przeniesie nas na inny poziom cywilizacyjny. Celowo używam tych dużych słów i w mojej ocenie używanie w sposób powszechny systemów sztucznej inteligencji będzie czymś więcej niż latające samochody. Wyobraźmy sobie, że każde dziecko na świecie ma swojego nauczyciela, który jest wszystkowiedzący. Nauczyciel, który jest taki sam dla bogatego dziecka jak i dla biednego. Jaki to jest skok cywilizacyjny dla regionów mało rozwiniętych. Latające samochody pewnie się pojawią, ale to jest szczegół. Edukacyjne możliwości dla całego świata będą naszą podwaliną do kolejnych, efektywnych skoków technologicznych…

Końcem maja WSB-NLU podpisało z Law4Tech umowę patronacką, w ramach której na uczelni mają od października rozpocząć się studia podyplomowe uczące o Sztucznej Inteligencji. Co jest przewidziane w programie tych studiów? Czego studenci będą mogli się dowiedzieć?

JJ: Propozycja studiów podyplomowych o specjalizacji sztuczna inteligencja została przez fundację Law4Tech i WSB-NLU przygotowana kompleksowo. Będzie składała się z trzech modułów: prawnego, zarządzająco-społecznego i technicznego. Efektem kształcenia tych studiów będzie umiejętność spojrzenia na sztuczną inteligencję z kilku perspektyw jakie będą studentom  potrzebne w życiu zawodowym. My jako eksperci z fundacji odpowiadamy w ramach tych studiów za komponent prawny i w jego ramach, poczynając od kwestii ogólnych takich jak czym jest sztuczna inteligencja i jakie są tworzone podstawowe ramy prawne, będziemy przechodzić do szczegółów czyli kwestii uregulowania i kwestii stosowania sztucznej inteligencji w poszczególnych aspektach prawnych – czy to bankowości, czy prawa własności intelektualnej i prawa pracy. Student uzyska najpierw ogólne spojrzenie na zagadnienie sztucznej inteligencji z trzech różnych perspektyw i w miarę upływu obu semestrów będzie uzyskiwał wiedzę specjalistyczną, bardziej szczegółową związaną z wybranymi, poszczególnymi aspektami życia gospodarczego, w których ta sztuczna inteligencja jest coraz częściej stosowana.

ŁŁ: Będziemy skupiać się na praktyce. Z całą pewnością chcemy pokazać podczas tych zajęć dlaczego nowoczesna firma, czy firma chcąca być uznawaną za nowoczesną, musi mieć w swoich szeregach specjalistów w zakresie także prawa nowych technologii. Zwrócimy szczególną uwagę na to, aby wykwalifikować nowoczesnych menadżerów, czyli oprócz osób, które w sposób znakomity zarządzają miejscem pracy, takich którzy mają wiedzę w zakresie rozwoju technologicznego i prawnych ram. Nie będziemy skupiać się na poglądach czy modelach cywilizacyjnych, bo na koniec dnia ważne jest jak ten człowiek ma się zachować w konkretnej sytuacji, przy konkretnym problemie i my na te pytania będziemy odpowiadać podczas studiów.

OS: Ten prawny komponent będzie bardzo wszechstronny. Staraliśmy się uwzględnić wszystkie obszary, które mają praktyczne znaczenie dla nowoczesnego przedsiębiorstwa. Udało nam się to zrobić dzięki temu, że w projekcie udział biorą wszyscy członkowie naszej fundacji, a jesteśmy bardzo różnorodni pod względem naszych zainteresowań zawodowych, a także doświadczeń. Właśnie z tego względu byliśmy w stanie przygotować program komponentu prawnego, który pokrywa bardzo szeroki zakres stosowania sztucznej inteligencji w nowoczesnej gospodarce.

JJ: Sztuczna inteligencja będzie źrenicą tych studiów, natomiast funkcjonuje ona w jakimś kontekście. Dlatego osoby, które zechcą się z nami spotkać już w październiku, oprócz kwestii związanych ze sztuczną inteligencją, znajdą w ofercie studiów również zagadnienia dotyczące funkcjonowania nowoczesnego, cyfrowego przedsiębiorstwa. Wiemy, że niektóre firmy funkcjonują obecnie prawie wyłącznie w Internecie więc będą to kwestie związane m.in. z branżą e-commerce oraz z platformami internetowymi. Będziemy się starać aby było to maksymalnie praktyczne, dlatego zwrócimy też uwagę na kwestie zawierania umów, unikania zagrożeń, negocjacji, projektowania swoich usług/towarów pod kątem ewentualnej odpowiedzialności za ich wdrażanie. Nie będziemy zapominać o kwestiach teoretycznych bez których te praktyczne są trudne do zrozumienia, ale jednak będziemy się starali dawać studentom perspektywę związaną ze sztuczną inteligencją osadzoną w konkretnym kontekście jakim jest funkcjonowanie przedsiębiorstwa na rynku polskim i europejskim.

ŁŁ: Podsumowując, Postaramy się odpowiedzieć na pytanie w jaki sposób bezpiecznie i sprawnie wdrożyć nowe technologie w nowoczesnym przedsiębiorstwie. 

Czy na ten moment widać zainteresowanie tym kierunkiem studiów?

JJ: Tak, a zapisy wciąż trwają i będą trwały do końca września. Stworzyła się już pokaźna grupa studentów więc jeżeli ktoś chciałby jeszcze dołączyć i uzupełnić to grono oraz spotkać się z nami i innymi szanowanymi ekspertami w zakresie sztucznej inteligencji, to zapraszamy, bo jeszcze jest do tego okazja.

fot. arch. prywatne Ł.Ł., J.J., O.S./pixabay.pl

Czytaj też:

O reparacjach w sądeckim ratuszu. Radni miasta poproszeni o wsparcie polityki zagranicznej rządu

Reklama