Tag: OPI PIB

  • UX writing to nie fukurawai

    UX writing to nie fukurawai

    Fukurawai to tradycyjna japońska zabawa, w której dziecko – z zasłoniętymi oczami –próbuje na obrysie twarzy ułożyć oczy, brwi, nos i usta. Efekt bywa groteskowy: usta lądują na czole, brew wkuwa się w oko. Zupełnie jak wtedy, gdy osoba projektująca treści dostaje gotowe makiety z prośbą: rzuć okiem.

    Trafione mikrotreści w usłudze cyfrowej to nie przypadek. To wynik zrozumienia kontekstu: kto czyta, kiedy i po co. Bez tego nawet najlepszy tekst może nie zadziałać – albo, co gorsza, zadziałać odwrotnie.

    Pisanie komunikatów i podpowiedzi bez znajomości produktu, potrzeb użytkownika i  dynamiki ekranu, na którym mają się pojawić, jest jak odpowiadanie na pytanie, którego nie znasz albo nie rozumiesz. Na maturze z języka polskiego być może to konieczność, ale w pracy nad aplikacjami państwowymi to strategia skazana na porażkę.

    Brak kontekstu prowadzi na manowce

    Zdarza się, że osoba od treści dostaje polecenie, by zredagować komunikaty w pliku tekstowym albo na Confluence. Owszem, może podjąć wyzwanie: uprościć wszystko zgodnie ze standardem prostego języka, poprawić błędy językowe, zadbać o spójność słownictwa i pisowni. Kiedy jednak owoc tej pracy trafia na ekrany, aplikacja zaczyna przemawiać zgrabnie, ale niekoniecznie na temat. Komunikaty nie są odpowiedzią na realne problemy użytkowników i użytkowniczek, a monologiem skupionym na procedurze i funkcjach.

    Zdarza się również, że zespół dostrzega istnienie osoby projektującej treści przede wszystkim wtedy, gdy trzeba wyjaśnić, jak działa interfejs lub procedura. Najlepiej w tooltipie, bo to element, który łatwo dodać bez pisania skomplikowanego kodu. Tooltipy stają się wtedy lekiem na skomplikowaną legislację, a nawet miejscem na podstawę prawną, która jest wyrazem „najwyższej troski” o działanie aplikacji zgodnie z prawem. Bywają też ostatnią deską ratunku, gdy zespół nie jest w stanie przygotować na czas prostszej ścieżki.

    W gąszczu tooltipów gubią się jednak potrzeby użytkownika. Ścieżka do celu zmienia się w dżunglę informacyjną, w której jedynym sposobem na przetrwanie staje się zgłoszenie do Helpdesku.

    Projekt już jest, brakuje tylko tekstów

    Kiedy widzę piękny, kolorowy projekt z nieprzemyślaną komunikacją, przypomina mi się sąsiad, który kochał auta. Wciąż je zmieniał, soboty spędzał na myjni. Tymi autami podwoził do szkoły trójkę swoich ukochanych dzieci.

    Któregoś ranka, kiedy zatrzymał się pod szkołą i czekał, aż maluchy trzasną drzwiami na pożegnanie, zaskoczyła go cisza. Żaden maluch nie pisnął. – Co jest? Wysiadajcie! Śpieszę się do pracy – zakrzyknął zdenerwowany i spojrzał na tylne siedzenie. Było puste. A to dlatego, że ruszył w drogę, w pośpiechu zapominając o dzieciach.

    Piękny interfejs bez przemyślanych treści jest jak lśniące, puste auto mojego sąsiada pod szkołą. Nie dowozi tego, co najważniejsze – sensu.

    Jak mawiał zmarły w tym roku Marcin Wicha – projektant myśli i projektuje językiem. Projekt, który powstaje bez udziału osoby projektującej treści, to projekt, który nie umie rozmawiać z ludźmi. Nie słucha, więc nie rozumie. Zamiast relacji opartej na zaufaniu, wiarygodności i wymianie buduje toksyczny związek wynikający z przymusu podyktowanego prawem.

    UX writing to zdejmowanie klątwy

    Osoba projektująca treści powinna zrozumieć to, co będzie musiała zrozumieć każda osoba korzystająca z usługi cyfrowej. Gdy podczas pracy nad ekranami zadaje zespołowi pytania dotyczące ich zrozumiałości i użyteczności, może spotkać się z odpowiedziami w rodzaju: „użytkownicy na pewno to zrozumieją”, „oni to wiedzą” lub „naukowcy to inteligentne osoby – nie trzeba im tego tłumaczyć”.

    Zupełnie jakby ktoś rzucił na zespół klątwę. Steven Pinker w Pięknym stylu nazwał ją klątwą wiedzy. Klątwa ta to trudność w wyobrażeniu sobie, że ktoś inny nie wie tego, co my. W efekcie tworzymy treści, które dla osób spoza zespołu okazują się nieczytelne lub niezrozumiałe – mimo że nam wydają się oczywiste.

    Dlatego najcenniejszym źródłem informacji dla osób projektujących aplikacje i systemy państwowe są użytkowniczki i użytkownicy. W Ośrodku Przetwarzania Informacji – Państwowym Instytucje Badawczym ich opinie i wrażenia poznajemy nie tylko podczas badań użyteczności prowadzonych przez profesjonalny zespół badawczy. Czytamy również zgłoszenia, które odbiera nasz Helpdesk. W zgłoszeniach nikt nie skarży się na kolory, gradienty czy smutne tło. Większość uwag dotyczy konkretnych oczekiwań od działania aplikacji. Użytkownicy i użytkowniczki chcą, żeby aplikacja była wiarygodna, prosta, zrozumiała, jednoznaczna. A najlepiej – żeby ich wyręczała.

    Podczas badań użyteczności okazuje się, że osoby korzystające z aplikacji gubią się, bo korzystają z badanej funkcji po raz pierwszy albo używają jej bardzo rzadko. Czasem nie rozumieją procedury, bo język prawa czy żargon IT nie jest ich naturalnym językiem. A czasem po prostu nie są skupieni – w głowie mają nową publikację, problem z pozyskaniem finansowania na badania, kłopoty z opornymi na przyswajanie wiedzy studentami, kredyt do spłacenia albo chore dziecko. W skrócie: mają do rozwikłania sprawy ważniejsze niż działanie Węzła Krajowego.

    To, co jasne dla zespołu, nie zawsze jest zrozumiałe dla użytkowników i użytkowniczek. Sztuka projektowania treści to sztuka zadawania pytań i zdejmowania klątwy wiedzy. To umiejętność współpracy z zespołami projektowymi i wytwórczymi w taki sposób, by uwzględnić perspektywę osoby, która musi skorzystać z usługi cyfrowej, ale – z wielu powodów – postrzega ją zupełnie inaczej niż my, jej twórcy.

    Empatia jak Ania z Zielonego Wzgórza

    Jest niedzielny poranek. Chcesz kupić świeże bułeczki na rodzinne śniadanie. Docierasz do piekarni, a tam słyszysz oschłe: – Akcja pieczenia bułeczek nie powiodła się. Spróbuj ponownie później. Czekasz chwilę, może dopieką. Ale za kwadrans słyszysz dokładnie to samo. I dwa kwadranse później też. A na dziesiątą macie bilety do kina. Co czujesz?

    Właśnie to czuje osoba, która utknęła na niezrozumiałym ekranie aplikacji. Jednak w przypadku usług państwowych konsekwencje mogą być mniej przyjemne niż nieudany poranek i rozczarowana rodzina.

    Pisząc historię o bułeczkach, odwołałam się do Twojej empatii – to umiejętność rozpoznawania i współodczuwania emocji innych osób. Empatia jest słowem kluczem, które często pojawia się w kontekście projektowania doświadczeń użytkownika, w tym jego komunikacji z produktem cyfrowym. Ale czy empatia wystarczy, by zaprojektować użyteczne treści i interfejsy?

    W świecie IT zdominowanym przez umysły ścisłe empatia ma postać pląsającej po łące Ani z Zielonego Wzgórza ze streszczenia Wojciecha Materny i Tomasza Manna. Zbyt beztroskie podejście do projektowania rzetelnych i potrzebnych użytkownikowi treści może zaowocować tym, że zostaje ono sprowadzone do korekty i redakcji komunikatów na chwilę przed wdrożeniem. Wtedy wartość takiej pracy staje się znikoma dla użyteczności usługi cyfrowej i niewspółmierna do włożonego wysiłku.

    Naukowcy to też ludzie

    Do odkrycia, co i kiedy aplikacja ma powiedzieć, potrzebna jest nie tylko znajomość języka i jego bogatej natury, ale – przede wszystkim – znajomość warsztatu projektowego, faktów i danych. Mapa empatii z pewnością się przyda, ale nie wystarczy. A co mówią dane? – 31 procent pracowników akademickich doświadcza wysokiego nasilenia symptomów zaburzeń afektywnych, depresji i zaburzeń lękowych – alarmuje Ministerstwo Nauki i Szkolnictwa Wyższego. To grupa przeciążona poznawczo, która potrzebuje tłumaczenia złożonych procedur urzędowych na minimalistyczne, konkretne interfejsy.

    Naukowcy, dla których projektujemy usługi cyfrowe, to wyjątkowi ludzie. Ich talent, umysły i energia powinny być wykorzystywane gdzie indziej – nie w pokonywaniu cyfrowych przeszkód. Zabiegani, rozproszeni, różnorodni, przeciążeni potrzebują pomocnego słowa na interfejsie. Takiego, które da im poczucie kontroli – w świecie, w którym wszystko inne jej się wymyka.

    Treść powinna pojawiać się wtedy, gdy użytkownik podejmuje decyzję

    – Większość zespołów, z którymi pracowałem, nie poświęca na fazę planowania treści i interakcji nawet minuty, od razu wskakując do Figmy czy Sketcha. Potem okazuje się, że we flow pojawiają się dziury, których nie zauważono na najwcześniejszych etapach prac – pisze Wojtek Kutyła w Web Accessibility. Wprowadzenie do dostępności cyfrowej.

    Takie stwierdzenie w książce o dostępności – wciąż jeszcze kojarzonej z techniczną listą wymagań dla programistów – jest znakiem, że idziemy w dobrym kierunku. Choć to jeszcze spacer, ale z dobrym widokiem.

    Jak zatem zidentyfikować miejsca, w których powinny pojawić się proste i pomocne treści? Sposobów jest wiele. – Every decision point is a potential content point – podpowiada Sarah Winter w Content Design, biblii osób projektujących treści w domenie Gov. Pomoże tu również rozrysowana ścieżka użytkownika (user flow) – diagram, który ilustruje wszystkie kroki i decyzje osoby korzystającej z usługi cyfrowej. Przyda się też mapowanie ścieżki użytkownika (user journey mapping), czyli przedstawienie całego doświadczenia związanego z usługą, również tego poza interfejsem. Pozwala ono odkryć nie tylko momenty najtrudniejszych decyzji, ale i emocje, potrzeby oraz problemy, które towarzyszą załatwianiu sprawy. Wartościowa okaże się również analiza danych z analityki webowej czy wspomniana już analiza zgłoszeń użytkowników.

    Sztuczna inteligencja a UX writing

    Gdybym miała napisać prompt, na podstawie którego generatywna sztuczna inteligencja mogłaby stworzyć symboliczny portret idealnej osoby projektującej treści, napisałabym: brwi uniesione z ciekawości, poszukujące odpowiedzi oczy, usta gotowe do rozmowy, pogryziony z uporu ołówek. W tle tablica zapisana prawami UX, heurystykami, wytycznymi dostępności, kluczowymi zagadnieniami z obszaru przetwarzania informacji, psychologii, kognitywistki, podstawami projektowania UI (user interface) i obsługi Figmy – wreszcie – zasadami prostego języka i efektywnego pisania.

    W kadrze powinien zmieścić się słownik poprawnej polszczyzny i słownik ortograficzny. A że język jest żywy i się zmienia, to wsparte na słownikach ramię ideału powinny zdobić tatuaże z linków prowadzących do poradni i podcastów językowych.

    Kluczowa umiejętność idealnej osoby projektującej treści to taktowne wejście do zespołu ekspertek i specjalistów mocno skupionych na bazach danych, legislacji, kodzie, pikselach, kolorach, ikonach i rozdzielczościach. Przydaje się więc opanowanie sztuki perswazji, negocjacji i erystyki. Dlatego ideał z portretu powinien trzymać w ręce wachlarz umiejętności miękkich. Konieczny, by schłodzić gorącą atmosferę przedwdrożeniową i zwrócić uwagę zespołu na język aplikacji. Nawet wtedy, gdy już wszyscy protestują przeciwko poprawkom, bo w słowie deadline podstawa słowotwórcza nie wzięła się z przypadku.

    Dodam, że wachlarz powinien być elastyczny. Zawsze w rozmiarze dopasowanym do różnych konfiguracji zespołów projektowych i wytwórczych.

    Czy maszyna udźwignie taki prompt? Niewykluczone. Efekt byłby jednak groteskowy, zupełnie jak w fukurawai.

  • Światowy wyścig AI: ChatGPT vs. DeepSeek. Czy Polska ma szansę włączyć się do tej globalnej rywalizacji?

    Światowy wyścig AI: ChatGPT vs. DeepSeek. Czy Polska ma szansę włączyć się do tej globalnej rywalizacji?

    Chiński sukces

    Chiński DeepSeek to model w pełni open-source (na licencji MIT), który dorównuje GPT4-o1 (mam na myśli model DeepSeek-R1, bo wcześniej jeszcze pojawił się V3). Zaburzył on dotychczasową hegemonię modeli GPT4-o1 (modeli pozwalających na głębokie wnioskowanie, czyli takie, które daje najwięcej wartości w zadaniach matematycznych, programowaniu czy skomplikowanych dedukcjach). Przewaga amerykańskich modeli została zaburzona przez tzw. czarnego konia, bo tak trzeba nazwać DeepSeeka. Ponadto chiński producent w swoim raporcie technicznym wykazał, że osiągnął docelowy efekt, używając tylko 2 tysięcy kart klasy Hopper do finalnego treningu, a nie dziesiątków tysięcy kart jak OpenAI/ Meta. Należy podkreślić, że koszt finalnego uczenia, liczący kilka milionów USD był wielokrotnie mniejszy od kosztów amerykańskich Big Techów, a koszty inferencji modeli DeepSeek okazały się rzędy wielkości niższe niż OpenAI (w zależności czy mówimy o DeepSeek V3 czy R1). To wszystko zaburzyło dotychczasowy porządek, wszedł nowy gracz, który nie jest słabszy jakościowo w większości zadań, jego uczenie jest tańsze, a do tego jego serwowanie/ inferencja dla jest tańsza dla konsumentów. Dodatkowo, jest to model open-source, czyli każdy, kto ma 16+ kart H100, może go samodzielnie odpalić i hostować dla własnych celów, Jest to kluczowe dla większości firm, bo zapewnia pełną kontrolę nad informacjami trafiającymi do modelu.

    Chińczycy tworząc model DeepSeek udowodnili, że potrafią dostosować się do warunków biznesowych w jakich działają. Karty jakimi dysponowali Chińczycy były wynikiem embarga USA – ograniczono eksport kart z wydajną pamięcią, więc pracowali na kartach o gorszych parametrach pamięci. Musieli także napisać dużo własnych optymalizacji procesu uczenia. Pamiętajmy jednak, że nie mieli wcale mało kart – do finalnego treningu użyli około 2000 kart klasy Hopper, jednak DeepSeek jako firma ma aż ok. 50 000 kart, czyli tyle ile wynosi limit zakupowy Polski w ramach nowej doktryny eksportowej USA. Należy jednak wziąć pod uwagę, że DeepSeek do inferencji swojego LLM-a używa kart chińskich, prawdopodobnie produkcji Huawei. Jednak do uczenia firma używała kart NVIDIA, to znaczy, że nie jest wcale tak łatwo odejść od środowiska obliczeniowego CUDA, które rozwija NVIDIA pod kątem wysoko skalowalnych obliczeń. Myślę, że na razie będzie następowała wymiana kart pod inferencje na chińskie, oczywiście jeśli się sprawdzą. Później możliwa będzie wymiana kart pod uczenie, które jest jednak o wiele bardziej złożonym procesem.

    Czy Polska ma szansę na rywalizację z USA i Chinami?

    Warto aby branża IT i decydenci odpowiedzialni za rozwój sztucznej inteligencji w Polsce zadali sobie pytanie – czy koniecznie potrzebujemy w naszym kraju dużych modeli językowych? Przykładowo modele DeepSeek v3/R1 mają ok. 700 mld parametrów, a do ich odpalenia potrzeba minimum 16 kart H100, z których każda jest warta ok. 150 000 złotych. Aby wyskalować całość do odpowiedniej wydajności, nawet dla małego zbioru użytkowników, należy daną liczbę zwiększyć do kilkudziesięciu kart. Konieczne są więc naprawdę duże środki na zakup, a do tego jeszcze trzeba dodać koszty energii elektrycznej, 70bNależy wziąć pod uwagę, że zdecydowana większość polskich małych, średnich i nawet dużych firm, nie potrzebuje asystenta do otwartej rozmowy na każdy temat. Bardziej przydatne są dla nich dedykowane LLM-y, które będą dotyczyć 10-20 konkretnych scenariuszy biznesowych. A taki cel da się osiągnąć strojąc mniejsze modele na domenowych danych, które są tańsze w utrzymaniu i tańsze w douczaniu. 

    Przewiduję, że modele ogólnego użytku jak DeepSeek, GPT4 będą powstawać, aby zachwycać ludzi dużym zróżnicowaniem kompetencji. Będę one głównie używane do pomocy w różnych zadaniach i problemach dnia codziennego. Natomiast tam, gdzie występuje ryzyko utraty przewagi konkurencyjnej bazującej na prywatnych danych, będziemy szli w dużo mniejsze modele szyte na miarę konkretnych firm lub instytucji. Szczególnie biorąc pod uwagę fakt, że dostosowanie DeepSeeka do mniejszych modeli drogą destylacji, np. do LLam-y 70B, odbywa się z dużą stratą jakościową dla języków rzadkich, takich jak język polski i inne mniej popularne języki UE. 

    W Polsce nie dysponujemy takim zapleczem technicznym jak Chiny czy USA. Możemy jednak budować mniejsze modele do 100 mld wag, które są porównywalne lub lepsze uwzględniając pewne kryteria (np. w obszarze znajomości tematów typowych dla naszej kultury czy historii), w porównaniu z takimi modelami jak DeepSeek.

    Polskie duże generatywne modele językowe – Polish LLMs

    Prace nad polskimi, dużymi, generatywnymi modelami językowymi zaczęły się około 2 lata temu. Pierwszym modelem był TRURL, który został stworzony przez VoiceLab.AI w 2023 i oparty był na LLamie 2. Polska firma technologiczna, która go zaprojektowała, jako jedna z pierwszych w kraju opracowała autorską technologię rozpoznawania mowy. TRURL to dostrojona wersja modelu LLama 2 – strojenie dotyczyło około 1mln próbek konwersacyjnych w języku polskim i angielskim. Reasumując, nie był to model wstępnie trenowany na polskich danych, czyli nie przeszedł językowej adaptacji.

    Na przełomie 2023/24 roku Politechnika Gdańska (PG) wraz z AI Labem z Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB) podjęły się językowej adaptacji modeli LLama i opracowały polskojęzyczne generatywne modele językowe o nazwie Qra, które zostały utworzone na podstawie korpusu danych zawierającego teksty wyłącznie w języku polskim. Wykorzystany korpus liczył łącznie ponad 1TB danych. To pierwszy polski model generatywny wstępnie wytrenowany na tak dużym zasobie polskich tekstów, do którego wytrenowania użyto wielkich mocy obliczeniowych. Dla porównania ChatGPT w większości trenowany jest na danych anglojęzycznych, a jedynie ułamek procenta jego korpusu treningowego stanowią dane w języku polskim. 

    W wyniku współpracy OPI PIB i PG powstały trzy modele, które różnią się złożonością tj. Qra 1B, Qra 7B, Qra 13B. Modele Qra 7B oraz Qra 13B uzyskują istotnie lepszy wynik perplexity, czyli zdolności do modelowania języka w zakresie jego rozumienia i jego gramatyki, niż model Llama-2-7b (od firmy Meta) oraz Mistral-7B-v0.1 (Mistral-AI).

    Następnie w roku 2024 pojawiły się modele Bielik w co najmniej dwóch wersjach, rozwijane w ramach fundacji SpeakLeasch. Bielik V2 został opracowany na bazie modelu Mistral-7B, którego powiększono o dodatkowe bloki dekodera do ostatecznego rozmiaru 11 mld parametrów. Model był wstępnie trenowany na około 2TB polskich danych tekstowych oraz dodatkowo był strojony na milionach syntetycznych instrukcji pozyskanych z Mixtrala 8×22, proces uczenia był też uzupełniony o wychowanie na preferencjach. 

    W roku 2024 został uruchomiony przez Ministerstwo Cyfryzacji projekt PLLuM, angażując 6 partnerów świata nauki, który po około roku prac wydał rodzinę kilkunastu modeli o rozmiarach od 8 mld do 70 mld w wersjach base (fundamentalny), instruct (po strojeniu na instrukcjach) i chat (po wychowaniu na preferencjach). W ramach PLLuMa wykonywane były wszelkie etapu uczenia, tj.: 

    a) adaptacja językowa (kontynuowany wstępny trening) na korpusie liczącym ponad 150 mld tokenów, 

    b) strojenie na instrukcjach (gdzie większość to były instrukcje organiczne lub bazujące na organicznych danych), 

    c) uczenie na preferencjach zbudowanych ręcznie przez dziesiątki annotatorów.

    Podsumowując, zdecydowanie warto budować i rozwijać polskie LLM-y. Sprawdzają się one lepiej dla tekstów opublikowanych w naszym języku. Warto jednak zastanowić się, czy koniecznie musimy się ścigać z USA i Chinami w budowaniu olbrzymich modeli. Z naszych obserwacji wynika, że zdecydowana większość małych, średnich i nawet dużych firm, nie potrzebuje asystenta do otwartej rozmowy na każdy temat. Bardziej przydatne są dla nich dedykowane LLM-y, które będą dotyczyć 10-20 konkretnych scenariuszy biznesowych. A taki cel da się osiągnąć trenując mniejsze modele na domenowych danych, które są tańsze w utrzymaniu. Dodatkowo, tam gdzie występuje ryzyko utraty przewagi konkurencyjnej bazującej na prywatnych danych, wartość lokalnych, otwartych modeli o mniejszym rozmiarze będzie nie do pominięcia. Możemy w Polsce budować mniejsze modele do 100 mld wag, które są porównywalne lub lepsze od wielkich LLM-ów, uwzględniając pewne kryteria (np. w obszarze znajomości tematów typowych dla naszej kultury czy historii).


    Marek Kozłowski

    Autor: dr inż. Marek Kozłowski

    Kierownik AI Labu w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym. W OPI PIB zajmuje się tworzeniem oprogramowania wzbogaconego inteligentnymi metodami przetwarzania danych (głównie danych tekstowych i obrazowych). Jego zainteresowania dotyczą przetwarzania języka naturalnego, eksploracji danych i uczenia maszynowego. Napisał ponad 40 publikacji naukowych z zakresu semantycznego przetwarzania tekstów i uczenia maszynowego. W swojej karierze brał udział w wielu komercyjnych projektach badawczych, które dotyczyły uczenia maszynowego dla firm takich jak np.: Samsung, France Telecom, Orange Labs, Millward Brown, Vive Textile Recycling czy Connectis. Brał udział w wielu międzynarodowych konkursach uczenia maszynowego m.in IEEE BigData 2019 Cup.

  • Sztuczna inteligencja jako narzędzie przyszłości w branży UX/UI

    Sztuczna inteligencja jako narzędzie przyszłości w branży UX/UI

    W czasach dynamicznie zmieniającego się świata technologii, powstanie sztucznej inteligencji (AI) oraz jej nagły rozwój wprowadziło w niemałe zakłopotanie przedstawicieli różnych stanowisk związanych z branżą IT. Niektórzy odbierają ją jako szansę oraz wsparcie, inni z kolei martwią się o utratę pracy i wyczuwają realne zagrożenie jakie może ze sobą nieść. 

    Czy sztuczna inteligencja może całkowicie zastąpić projektantów?

    Jest to pytanie, które w ostatnim czasie często pojawia się na wielu forach. Właściwe wydaje się jednak podejście, że AI będzie niezastąpionym asystentem, pozwalającym skupić się na aspektach kreatywnych i strategicznych. W artykule omówię, jak sztuczna inteligencja wpływa na proces projektowania UX/UI, jakie korzyści i wyzwania niesie ze sobą oraz jakich zmian można spodziewać się w najbliższej przyszłości, w której intuicyjność i prostota korzystania z rozwiązań są kluczowe.

    Wraz z rozwojem sztucznej inteligencji rynek narzędzi do projektowania UX/UI wzbogacił się o szereg innowacyjnych rozwiązań wspieranych przez AI. Technologie te nie tylko przyspieszają i ułatwiają proces projektowania, ale także pozwalają na bardziej precyzyjne i efektywne podejście do tworzenia interfejsów i doświadczeń użytkownika.

    Jedną z kategorii narzędzi, która wydaje się nieść dużą wartość dla projektanta są narzędzia związane z automatyzacją procesu generowania prototypów i mockupów. Algorytmy narzędzi takich jak: FIGMA AI, Sketch AI, Uizard czy Designs AI, są w stanie analizować dane użytkowników, trendy wizualne oraz najlepsze praktyki projektowe, aby tworzyć wstępne wersje interfejsów, które mogą być następnie dostosowywane przez projektantów. Dzięki temu proces projektowania staje się szybszy i bardziej efektywny, a projektanci mogą skupić się na bardziej kreatywnych aspektach swojej pracy.
    Po kilkukrotnym użyciu niektórych narzędzi można stwierdzić, że wciąż daleko im do perfekcji. Tworzone projekty często odbiegają od pierwotnych założeń. Jednak jestem przekonany, że w przyszłości proces ten zostanie dopracowany, a efekty pracy z wykorzystaniem AI będą coraz lepiej odpowiadać oczekiwaniom i potrzebom użytkowników.

    Kolejną gałęzią działania SI, której warto przyjrzeć się w przypadku projektowania jest pomoc i systematyzacja pracy projektowej. Sztuczna inteligencja może znacząco wpłynąć oraz ułatwić proces zarządzania projektem i harmonogramem. Zaawansowane algorytmy pozwalają na automatyczną analizę postępu prac, wykrycie trudności oraz opóźnień i natychmiastowe przedstawienie zmian, mających na celu ułatwienie realizacji założeń.

    Sztuczna inteligencja efektywnie przydziela zadania, uwzględniając umiejętności i dostępność członków zespołu, co pozwala na optymalne rozdzielenie pracy i minimalizowanie ryzyka przeciążenia. Dodatkowo, monitorując wydajność w czasie rzeczywistym, AI dostarcza cennych danych, które umożliwiają szybsze podejmowanie decyzji. Narzędzia takie jak Trello, Asana czy Monday, wzbogacone o sztuczną inteligencję, pozwalają na bardziej zorganizowane i przewidywalne zarządzanie projektem, oszczędzając czas i zwiększając efektywność. W ten sposób sztuczna inteligencja wspiera projektantów, umożliwiając lepsze planowanie i realizację zadań.

    Innym przykładem jest wykorzystanie AI do gromadzenia danych o użytkownikach oraz ich późniejszej analizy, umożliwiającej lepsze zrozumienie zachowań i potrzeb. Narzędziami, które umożliwiają taką analize, są między innymi Hotjar, Mixpanel, Amplitude oraz Google Analytics 4 (GA4). Sztuczna inteligencja pozwala projektantom na przetwarzanie i interpretowanie ogromnych ilości danych, dzięki którym następnie można precyzyjniej określić potrzeby użytkownika i to jak ma wyglądać interfejs projektowanych systemów czy usług. 

    Projekty oparte na danych, a nie tylko na intuicji

    Sztuczna inteligencja pomaga w identyfikacji wzorców zachowań, przewidywaniu przyszłych działań użytkowników oraz automatycznym segmentowaniu ich na podstawie interakcji z produktem. Przykładowo, Google Analytics 4 wykorzystuje modele predykcyjne do określania prawdopodobieństwa konwersji, a Hotjar pozwala analizować nagrania sesji użytkowników i mapy cieplne, wskazując obszary, które wymagają optymalizacji. W efekcie projektanci UX/UI mogą szybciej reagować na potrzeby klientów i podejmować trafniejsze decyzje biznesowe oparte na danych, a nie jedynie na intuicji. 

    W dobie rosnącego znaczenia dostępności i inkluzywności nie można zapomnieć o narzędziach sztucznej inteligencji, które wspierają projektowanie przyjaznych i dostępnych rozwiązań dla wszystkich użytkowników.

    Dostępność – czyli jeden z najważniejszych aspektów nowoczesnego projektowania oznacza tworzenie produktów cyfrowych dostępnych dla wszystkich użytkowników, niezależnie od ich ograniczeń technologicznych, poznawczych czy fizycznych. W tej dziedzinie sztuczna inteligencja ma naprawdę duży potencjał. Pozwala na automatyczne generowanie napisów do materiałów audiowizualnych (np. Whisper od OpenAI), a podczas projektowania umożliwia analizę części interfejsu pod kątem użytkowników z niepełnosprawnościami.

    Spójrz na projekt z perspektywy osoby z niepełnosprawnością

    Sztuczna inteligencja jest w stanie przybliżyć projektantowi jak osoby z określonymi dysfunkcjami mogą korzystać z tworzonego rozwiązania. Dzięki temu rozwiązania cyfrowe stają się bardziej inkluzywne i lepiej dopasowane do potrzeb szerokiego grona odbiorców. Wtyczka Stark, stworzona z myślą o narzędziu projektowym Figma, oferuje szereg funkcji umożliwiających symulację, w jaki sposób osoby z różnymi problemami ze wzrokiem mogą odbierać projekt.

    Podsumowując, automatyzacja wspierana przez sztuczną inteligencję staje się coraz bardziej istotnym elementem procesu projektowania UX/UI. Narzędzia i technologie oparte na AI oferują projektantom szereg możliwości, które mogą znacząco przyspieszyć i usprawnić ich pracę, jednocześnie zachowując wysoką jakość i dostosowanie do potrzeb użytkowników. W przyszłości możemy spodziewać się, że sztuczna inteligencja będzie odgrywać coraz większą rolę w projektowaniu UX/UI, wspierając projektantów i ułatwiając im pracę. Jednak nie zastąpi ona całkowicie ludzkiego wkładu w projekt, lecz raczej stanie się nieocenionym wsparciem, umożliwiając tworzenie lepszych i bardziej zaawansowanych rozwiązań w zdecydowanie krótszym czasie. Współpraca między ludźmi, a sztuczną inteligencją będzie kluczowa dla dalszego rozwoju i innowacji w dziedzinie projektowania UX/UI.


    Karol Danis Opi Pib

    O autorze: Karol Danis – Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy. 
    Junior UX Designer z pasją do uczenia się przez działanie. Uważa, że prostota i intuicyjność to fundament każdego projektu. W pracy poszukuje balansu pomiędzy estetyką, a funkcjonalnością. Ceni empatię i lubi pracować blisko użytkowników oraz zespołu.

  • Gamifikacja w UX – kiedy działa, a kiedy jest tylko zbędnym dodatkiem?

    Gamifikacja w UX – kiedy działa, a kiedy jest tylko zbędnym dodatkiem?

    Czym jest gamifikacja w UX?

    Gamifikacja to wykorzystanie mechanizmów znanych z gier w produktach, które grami nie są, aby zwiększyć zaangażowanie i motywację użytkowników. Nie chodzi w niej o tworzenie gry, lecz o inteligentne zastosowanie jej elementów, by użytkownicy chętniej korzystali z produktu.

    Przykładami popularnych mechanizmów gamifikacji są punkty, odznaki, rankingi, poziomy, paski postępu, nagrody i bonusy.

    Dlaczego firmy i projektanci UX coraz częściej sięgają po gamifikację?

    Firmy wdrażają gamifikację, ponieważ pomaga ona zwiększyć zaangażowanie klientów, poprawić retencję i wpływać na decyzje zakupowe. Mechanizmy takie jak nagrody czy poziomy motywują użytkowników do częstszego korzystania z produktu i budowania lojalności wobec marki. Gamifikacja może również usprawnić onboarding, zmniejszając potrzebę wsparcia. Dobrze zaprojektowana, przekłada się na długoterminową wartość klienta i przewagę konkurencyjną.

    Gamifikacja zwiększa zaangażowanie użytkowników tylko wtedy, gdy jest dobrze zaprojektowana i ma sens w kontekście produktu.

    Kiedy gamifikacja działa?

    Gdy jest powiązana z motywacją użytkownika

    Duolingo wykorzystuje mechanizm „streaków” (serii dni nauki), aby zmotywować użytkowników do codziennego powtarzania materiału. Zdobywanie punktów i odznak sprawia, że nauka staje się bardziej angażująca. Dzięki temu użytkownicy wracają codziennie, by nie przerwać swojej serii.

    Habitica skutecznie stosuje gamifikację, ponieważ jest ściśle powiązana z motywacją użytkowników do budowania dobrych nawyków. Tworzą oni listy zadań, takich jak ćwiczenia, nauka czy czytanie, a ich wykonanie nagradzane jest punktami doświadczenia, złotem i odblokowaniem nagród w grze. System opiera się na wewnętrznej motywacji – użytkownicy chcą być bardziej produktywni, a Habitica nagradza ich za realne postępy. Jest też elastyczna, pozwalając dopasować cele do indywidualnych potrzeb.

    Gdy dodaje realną wartość

    Too Good To Go motywuje użytkowników do ekologicznych zachowań, nagradzając ich odznakami za ratowanie żywności przed wyrzuceniem. System statystyk, np. „Uratowałeś X posiłków” sprawia, że użytkownicy widzą realny wpływ swoich działań.

    Apple Watch i Fitbit zachęcają do aktywności fizycznej dzięki systemowi pierścieni aktywności i codziennych wyzwań. Wizualizacje postępu oraz drobne nagrody, takie jak odznaki za osiągnięte cele, pomagają utrzymać zdrowe nawyki.

    Gdy łączy nagrody z rzeczywistymi korzyściami

    Vitality, dostępny w niektórych ubezpieczeniach zdrowotnych, nagradza użytkowników za aktywny tryb życia poprzez zniżki na składki, karty podarunkowe lub tańszy dostęp do siłowni. Punkty zdobywa się za kroki, ćwiczenia czy badania profilaktyczne, co łączy gamifikację z realnymi korzyściami zdrowotnymi i finansowymi.

    RecycleBank nagradza użytkowników za działania proekologiczne, takie jak recykling czy oszczędzanie energii. W zamian za aktywność użytkownicy otrzymują punkty, które można wymieniać na zniżki w sklepach, bilety do kina lub inne nagrody.

    Gdy pomaga zmieniać zachowania i nawyki

    Nike Run Club pozwala użytkownikom wyznaczać cele biegowe i zdobywać nagrody za ich realizację, co skutecznie wspiera długoterminowe nawyki związane z aktywnością fizyczną.

    Gdy nie zmusza do rywalizacji, jeśli użytkownik jej nie lubi

    Aplikacja Forest pomaga skupić się na pracy lub nauce, nagradzając użytkownika za czas spędzony bez telefonu. Za każdą udaną sesję koncentracji użytkownik „sadzi” wirtualne drzewo, a z czasem może stworzyć cały las. Brak rywalizacji z innymi sprawia, że nagrody są czysto indywidualne i wspierają lepsze nawyki bez presji.

    Kiedy gamifikacja jest tylko zbędnym dodatkiem?

    Gdy frustruje użytkowników

    Program lojalnościowy popularnej sieci kawiarni wymaga np. 50 zakupów, aby zdobyć niewielką nagrodę, co może wywoływać frustrację. Jeśli wysiłek jest nieadekwatny do nagrody, mechanizm przestaje działać motywująco.

    Google Local Guides zmieniło zasady zdobywania punktów i odznak, przez co użytkownicy, którzy wcześniej włożyli wiele pracy w recenzje, poczuli się oszukani.

    Gdy zachęca do niepożądanych zachowań

    Popularna aplikacja do zamawiania przejazdów stosowała system nagród, który motywował kierowców do długich godzin pracy, co mogło prowadzić do przemęczenia i zwiększać ryzyko wypadków.

    Platformy do zamawiania jedzenia z dowozem stosują systemy bonusów i tajemniczych nagród, które skłaniają kurierów do pracy ponad siły, co negatywnie wpływa na ich zdrowie i bezpieczeństwo.

    Gdy mechanika jest sprzeczna z celem produktu

    Aplikacje bankowe czasem wprowadzają rankingi typu „najlepszy oszczędzający”, co dla wielu użytkowników jest zbędne i rozpraszające – zamiast tego oczekują oni prostoty i szybkości transakcji.

    Niektóre sklepy internetowe dodają system „misji”, jak np. obejrzenie 10 produktów lub dodanie 5 rzeczy do koszyka, co może irytować użytkowników zamiast ich angażować.

    Gdy zniechęca użytkowników

    Opaska fitness monitorująca aktywność pokazywała tylko wyniki najlepszych użytkowników, co mogło demotywować początkujących.

    Niektóre aplikacje przesadzają z powiadomieniami: „Wracaj! Stracisz swoją serię!”, czy „Zostało tylko 5 godzin na zdobycie bonusu!”. Nadmiar presji może powodować irytację i prowadzić do odinstalowania aplikacji.

    Jak zaprojektować dobrą gamifikację?

    • Zrozum użytkownika – co go motywuje? Nie każdy reaguje na te same bodźce, dlatego ważne jest dopasowanie mechanizmów do grupy docelowej. Dla jednych kluczowe będą nagrody, dla innych satysfakcja z postępów.
    • Określ jasny cel gamifikacji – czy chcesz zwiększyć zaangażowanie, lojalność czy retencję? Mechanizmy powinny wspierać konkretne działania użytkownika, a nie być jedynie ozdobnikiem.
    • Testuj rozwiązania – gamifikacja działa tylko, jeśli użytkownicy faktycznie się angażują. Przeprowadzaj testy A/B, analizuj dane i optymalizuj elementy, które działają najlepiej.
    • Nie przesadzaj! – czasem mniej znaczy więcej. Nadmiar mechanizmów może przytłoczyć użytkownika, zamiast go motywować. Skup się na prostych, ale skutecznych rozwiązaniach.
      Gamifikacja nie powinna zastępować dobrze zaprojektowanego UX. Jeśli aplikacja jest nieintuicyjna, dodanie punktów i odznak nie sprawi, że użytkownicy ją pokochają. Powinna wspierać doświadczenie użytkownika, a nie je komplikować.

    Nie kopiuj mechanizmów gier oderwanych od celu aplikacji – to co działa gdzie indziej, niekoniecznie sprawdzi się u Ciebie. Każdy produkt ma swoją specyfikę i potrzeby użytkowników.

    Dobra gamifikacja daje realną wartość. Najlepsze systemy oferują nagrody, takie jak zniżki, oszczędność czasu czy dodatkowe funkcje, które zwiększają zaangażowanie i lojalność użytkowników.


    Adrianna Wojciechowska

    Autorka: Adrianna Wojciechowska, Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy

    Specjalistka UX/UI | Inżynier architekt. Projektuje intuicyjne i funkcjonalne doświadczenia użytkownika, łącząc analizę potrzeb z estetyką i użytecznością. Współpracowała z klientami z Arabii Saudyjskiej, Wielkiej Brytanii i Polski, uczestnicząc w każdym etapie procesu UX/UI. Specjalizuje się w projektach z branży fintech (bankowość, trading), insurtech i e-commerce. Pracowała nad produktami SaaS, B2B i B2C. Obecnie pracuje jako specjalistka w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym, tworząc nowoczesne i użyteczne rozwiązania cyfrowe.

  • Współpraca medyków i naukowców STEM

    Współpraca medyków i naukowców STEM

    Rozwój w nauce, biznesie i społeczeństwie wymaga mistrzowskich zdolności współpracy i adaptacji. Wiele optymalnych wzorców możemy odnaleźć w przyrodzie. Jednym z najbardziej zaawansowanych przykładów współpracy i adaptacji jest ten, który widzimy, gdy w jesiennym lesie zbieramy grzyby.

    W Polsce, tak jak w naturze, współpraca jest niezbędna do dalszego rozwoju w szybko zmieniającym się środowisku technologicznym i biznesowym. W ostatnich latach wielu polskich ekspertów okazało się kluczowymi postaciami w obszarze innowacji, szczególnie w sektorze sztucznej inteligencji (AI). Jak pokazują liczne raporty, w tym „State of Polish AI”, globalne korporacje wyławiają polskich specjalistów z tej dziedziny. Dla Polski korzystniejszą sytuacją jest, gdy korporacje lokują swoje centra badawczo-rozwojowe (B+R) na terenie naszego kraju.

    Dalszy rozwój i sukces polskiej gospodarki wymaga nie tylko zaawansowanych technologii, ale także ścisłej współpracy pomiędzy IT, biznesem i naukami społecznymi. Wzrost automatyzacji i cyfryzacji jest kluczowy w obliczu wyzwań demograficznych, takich jak starzenie się społeczeństwa. Zjawisko „srebrnego tsunami” wskazuje na konieczność adaptacji rynku pracy poprzez wdrażanie nowych technologii oraz efektywną współpracę na poziomie przedsiębiorstw, instytucji naukowych i społecznych.

    Jak pokazują raporty, polska gospodarka wyczerpała już proste rezerwy rozwojowe i stoi przed nowymi wyzwaniami. Przedsiębiorczość i pomysłowość Polaków, choć są istotnym kapitałem, potrzebują wsparcia w postaci lepszych warunków dla innowacji, większych inwestycji w badania i rozwój oraz odpowiednich ram prawnych. Przyszły rozwój będzie możliwy tylko dzięki współpracy między – biznesem, nauką i technologią. Teraz już tylko takie podejście może stanowić fundament długofalowego wzrostu.

    Najbardziej palącym celem rozwoju w oczach Polaków są kwestie związane ze złym stanem systemu ochrony zdrowia. Według ostatnich badań, aż 81% respondentów wskazuje zbyt długie kolejki do lekarza i szpitala jako jedno z wyzwań, przed którymi stoi Polska.

    Sektor ochrony zdrowia jak w soczewce ukazuje zarówno potrzeby jak i potencjał współpracy praktyków i naukowców. Powstało wiele artykułów, raportów, strategii, „koalicji na rzecz”, grup roboczych, odbyło się dużo konferencji, paneli i debat. Można uznać, że stan obecny sektora ochrony zdrowia w Polsce jest dobrze zdiagnozowany. Jedną z najnowszych analiz ukazującą konsens środowiska medycznego opublikowano po debacie „VIII Kongresu Wizja Zdrowia – Diagnoza i Przyszłość – Foresight Medyczny” – kluczowe wnioski ujęto w tabeli poniżej. 

    Stan obecnyStan docelowy
    Niska dostępność zasobów ludzkich i nadmierne obciążenie pracą.Optymalizacja zatrudnienia i obciążenia pracą, z większym wsparciem kadrowym.
    Brak odpowiedniego wsparcia psychologicznego, mobbing.Stałe wsparcie psychologiczne dla medyków i skuteczne mechanizmy zapobiegania mobbingowi.
    Niedoskonałości systemowe, np. nieefektywna organizacja pracy.Zautomatyzowane systemy zarządzania pracą i koordynacji działań w placówkach medycznych.
    Zła organizacja dyżurów, która wpływa na jakość pracy i zdrowie lekarzy.Elastyczne i bardziej racjonalne planowanie dyżurów, zapewniające odpowiedni odpoczynek.
    Niewystarczające wynagrodzenia w stosunku do wykonywanej pracy.Odpowiednie wynagrodzenia i świadczenia adekwatne do obciążenia pracą i odpowiedzialności.
    Brak inwestycji w nowe technologie, które mogłyby wspierać codzienną pracę.Wprowadzenie nowoczesnych narzędzi cyfrowych, automatyzacji i technologii wspierających medycynę.

    Elementarne pytanie: jak ze stanu obecnego przejść do docelowego?, dotąd nie znajduje praktycznej i skutecznej odpowiedzi. Obserwujemy to oczekując na badania u specjalisty.

    W wielu obszarach gospodarki zadania pracochłonne opłaca się automatyzować. Fala transformacji cyfrowej przetoczyła się przez różnorodne dziedziny biznesu i ostatnio dociera także do ochrony zdrowia. Główną wytyczną w przypadku medycyny jest bezpieczeństwo pacjentów. Stawia to bardzo wysoko wymagania dotyczące jakości proponowanych rozwiązań. Wymaganiom takim sprostać mogą rozwiązania wypracowane przez polskich naukowców.

    Kolejne etapy jakie trzeba przejść na drodze do komercjalizacji dobrze identyfikuje skala TRL (Technology Readiness Level). Ten dziewięciostopniowy system oceny dojrzałości technologicznej produktu lub rozwiązania został opracowany przez NASA i jest szeroko stosowany w różnych branżach, w tym w medycynie cyfrowej. Zaczynając od wstępnych badań koncepcyjnych (TRL 1-3), przez walidację i prototypowanie (TRL 4-6), aż po pełną implementację w środowisku operacyjnym (TRL 7-9). Każde innowacyjne rozwiązanie w medycynie musi przejść skomplikowaną i wieloetapową drogę. W przypadku ochrony zdrowia ta ścieżka wymaga współpracy pomiędzy środowiskiem medycznym a naukowcami STEM.

    Podobnie jak mikoryza w ekosystemie leśnym, współpraca między różnymi środowiskami – medycznym, akademickim i technologicznym – jest kluczowa dla rozwoju innowacji w medycynie cyfrowej. John Nash, noblista z 1994 roku, podkreśla, że najlepsze wyniki osiąga się wtedy, gdy każda ze stron działa zarówno w swoim własnym interesie, jak i w interesie grupy. Właśnie takie podejście, nazywane równowagą Nasha, jest konieczne, aby osiągnąć sukces w obszarze medycyny cyfrowej.

    Centrum Innowacji dla Medycyny Cyfrowej (CIMC) w OPI, prowadzi obecnie badanie, które ma na celu zidentyfikowanie potrzeb i potencjału współpracy między środowiskiem medycznym a naukowcami z dziedzin STEM (Science, Technology, Engineering, Mathematics). Badanie to jest realizowane we współpracy z Agencją Badań Medycznych (ABM) i obejmie Regionalne Centra Medycyny Cyfrowej w Polsce. Celem badania jest odpowiedź na kluczowe pytania: jakie są realne potrzeby współpracy?, jakie bariery napotykają obie strony? i jak można je skutecznie przezwyciężyć?

    Dzięki tej współpracy możliwe będzie lepsze zrozumienie, jakie obszary medycyny cyfrowej wymagają szczególnego wsparcia technologicznego oraz które rozwiązania mogą najszybciej przejść przez wszystkie etapy rozwoju – od koncepcji (TRL 1-3), aż po implementację w codziennej praktyce klinicznej (TRL 7-9). Proces ten, podobnie jak w przyrodzie, wymaga wzajemnego wsparcia, ujednoliconych standardów i ciągłej wymiany wiedzy między ekspertami z różnych dziedzin.

    Wyniki tego badania będą miały wpływ na kształtowanie przyszłych innowacji w ochronie zdrowia, pomagając wypracować modele współpracy, które w sposób efektywny będą wspierać wprowadzanie nowych technologii medycznych, przy jednoczesnym zapewnieniu bezpieczeństwa pacjentów i wysokich standardów opieki zdrowotnej. 

    Spacerując po jesiennym lesie warto pomyśleć o potencjale współpracy, spoglądając na majestatyczne sylwetki drzew i dorodne grzyby oraz ich wzajemną współzależność od siebie.


    Przeczytaj więcej artykułów ekspertów Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego:
    – „Cyfrowe technologie w humanistyce” autorstwa Sylwii Banaszkiewicz
    – „Naukowcy w centrum uwagi. Jak UX wspiera sektor nauki i szkolnictwa wyższego” autorstwa Waldemara Więckowskiego
    – „W pogoni za rynkiem pracy – mikropoświadczenia nowym kierunkiem w szkolnictwie wyższym” autorstwa dr Anny Łobodzińskiej
    – „Rewolucja AI ma twarz LLM-ów” autorstwa dr inż. Marka Kozłowskiego
    – „IT w sektorze publicznym. Wyzwania i możliwości” oraz „Lean IT drogą do efektywności w erze cyfrowej?” autorstwa Anny Piry

  • Lean IT drogą do efektywności w erze cyfrowej?

    Lean IT drogą do efektywności w erze cyfrowej?

    W erze cyfrowej, w której tempo zmian jest coraz szybsze, przedsiębiorstwa muszą błyskawicznie dostosowywać się do nowych wyzwań technologicznych. Współczesny biznes nie może pozwolić sobie na opóźnienia, marnotrawstwo zasobów czy nieefektywność. W tym kontekście Lean IT staje się kluczową strategią, pomagającą firmom zarówno optymalizować procesy informatyczne, jak i lepiej wykorzystać dostępne zasoby.

    Ale czym właściwie jest Lean IT? Jakie korzyści przynosi przedsiębiorstwom? I w jaki sposób wspiera rozwój zawodowy specjalistów IT? Sprawdźmy, co kryje się za tą koncepcją i dlaczego staje się coraz bardziej popularna.

    Co to jest Lean IT?

    Lean IT to koncepcja oparta na zasadach lean management, która pierwotnie była stosowana w przemyśle produkcyjnym, znana jako lean manufacturing. Celem lean management jest redukcja marnotrawstwa i optymalizacja procesów, co prowadzi do zwiększenia efektywności. W IT, podobnie jak w innych branżach, kluczowym celem Lean IT jest eliminacja działań, które nie przynoszą wartości. Dotyczy to zarówno zarządzania infrastrukturą technologiczną, jak i procesów biznesowych. Lean IT skupia się na poprawie jakości usług IT, minimalizacji kosztów oraz szybszym dostarczaniu rozwiązań klientom. W ten sposób firmy mogą lepiej odpowiadać na potrzeby rynku, a specjaliści IT rozwijać swoje kompetencje w zakresie zarządzania projektami i optymalizacji procesów. Co więcej, Lean IT promuje kulturę ciągłego doskonalenia, w której zespoły stale dążą do poprawy wyników poprzez eliminację zbędnych kroków oraz wprowadzanie innowacji​.Lean IT opiera się na kilku kluczowych zasadach, które są niezbędne do wdrożenia tej koncepcji w środowisku technologicznym:

    • eliminacja marnotrawstwa – celem jest identyfikacja i usunięcie działań, które nie przynoszą wartości dodanej, np. nadmiarowe procesy, oczekiwanie na decyzje czy zbędne etapy w produkcji oprogramowania.
    • Kaizen – ciągłe doskonalenie – zachęcanie zespołów do systematycznego usprawniania procesów. Zamiast czekać na duże rewolucje, firmy powinny wprowadzać drobne, ale regularne usprawnienia​.
    • Zarządzanie przepływem pracy – optymalizacja przepływu zadań w zespołach IT w taki sposób, aby unikać zatorów i opóźnień. Przykładem może być wykorzystanie narzędzi do zarządzania pracą w toku, takich jak tablice Kanban.
    • Podejście skoncentrowane na kliencie – każda decyzja podejmowana przez zespół IT powinna być zorientowana na dostarczenie wartości klientowi. Dotyczy to zarówno klientów zewnętrznych, jak i wewnętrznych​.

    Lean IT w praktyce. Narzędzia dla biznesu

    Każda firma, niezależnie od jej wielkości, stoi przed wyzwaniem optymalizacji procesów, aby pozostać konkurencyjną. Właśnie tutaj Lean IT zyskuje na znaczeniu, oferując szeroki wachlarz narzędzi, które pomagają przedsiębiorcom lepiej zarządzać swoimi zasobami.

    • Mapowanie strumienia wartości (Value Stream Mapping – VSM)
      Jest to metoda pozwalająca na analizę wszystkich działań składających się na dany proces, od jego początku aż do końca, z perspektywy klienta. Mapowanie strumienia wartości umożliwia zidentyfikowanie miejsc, gdzie pojawiają się marnotrawstwa, np. długie okresy oczekiwania, zbędne kroki w procesie lub nieefektywne zarządzanie zadaniami. Dzięki VSM przedsiębiorcy mogą lepiej zrozumieć, które obszary ich organizacji wymagają optymalizacji​.
    • Kaizen – filozofia ciągłego doskonalenia
      Kaizen to jedna z fundamentalnych zasad Lean IT, która promuje wprowadzanie drobnych, ale regularnych usprawnień. Przedsiębiorcy, którzy wdrażają Kaizen w swoich firmach, zyskują na elastyczności i mogą szybciej reagować na zmieniające się potrzeby rynku. W IT, Kaizen może być stosowany do poprawy jakości kodu, usprawniania procesów zarządzania projektami lub eliminowania problemów związanych z infrastrukturą​.
    • Kanban i zarządzanie pracą w toku
      Tablice Kanban to popularne narzędzie w zarządzaniu projektami IT, które wizualizują przepływ zadań. Dzięki temu zespoły mogą szybko zidentyfikować wąskie gardła w procesie pracy i efektywnie zarządzać wieloma projektami jednocześnie.

    Rozwój zawodowy

    Lean IT ma ogromny wpływ na rozwój zawodowy specjalistów IT, pomagając im zdobywać nowe umiejętności i efektywnie zarządzać projektami. Stosowanie zasad lean uczy odpowiedzialności za efektywne działanie na każdym etapie pracy, co jest kluczowe w środowiskach o wysokiej dynamice i wymaganiach dotyczących jakości i szybkości dostarczania usług. Lean IT pozwala specjalistom IT lepiej zarządzać czasem i pracą, co prowadzi do wyeliminowania marnotrawstwa, takich jak zbyt długie oczekiwanie na zatwierdzenia, nadmiarowa produkcja czy zbyt wiele niepotrzebnych poprawek. Dzięki temu programiści, administratorzy systemów i inżynierowie DevOps mogą skupić się na kluczowych zadaniach, które dostarczają wartość dla klienta i organizacji. Przykładem narzędzia wspierającego to podejście jest system Kanban. Wizualizuje on przepływ pracy, co pozwala zespołom śledzić zadania i natychmiast identyfikować wąskie gardła. Ograniczanie liczby prac w toku (work in progress) pomaga zespołom utrzymać równowagę między wieloma równocześnie realizowanymi projektami, co zmniejsza stres i zwiększa produktywność​.

    Filozofia kaizen, będąca fundamentem Lean IT, promuje stałe doskonalenie umiejętności pracowników. Zespoły IT są zachęcane do regularnej analizy swoich procesów, identyfikowania obszarów, które mogą wymagać usprawnień, i wprowadzania niewielkich, ale systematycznych poprawek. Taka praktyka nie tylko poprawia efektywność pracy, ale także rozwija zdolności analityczne i zdolność do rozwiązywania problemów. Przykładowo, regularne retrospektywy w zespołach programistycznych pozwalają na bieżąco eliminować błędy i zwiększać jakość wytwarzanego oprogramowania. Ponadto Lean IT wspiera również rozwój specjalistów w kontekście automatyzacji procesów, ucząc ich, jak wykorzystywać narzędzia automatyzacyjne, które redukują powtarzalne zadania i minimalizują ryzyko błędów. Dzięki temu pracownicy IT mogą skupić się na bardziej zaawansowanych i twórczych zadaniach​. Lean IT promuje model pracy zespołowej, który opiera się na otwartej komunikacji i współpracy. Wysoka przejrzystość zadań dzięki narzędziom takim jak Kanban pozwala zespołom IT lepiej koordynować działania, eliminować opóźnienia i unikać chaosu. Usprawnienia w przepływie pracy, eliminacja barier komunikacyjnych oraz lepsza synchronizacja w zespołach prowadzą do efektywniejszej realizacji projektów. Dla specjalistów IT oznacza to także rozwój kompetencji interpersonalnych, które są coraz bardziej cenione na współczesnym rynku pracy. Umiejętność współpracy, komunikowania się i negocjacji staje się kluczowa, zwłaszcza w zespołach rozproszonych, pracujących zdalnie lub z partnerami z różnych krajów​.

    Przyszłość Lean IT

    Lean IT to nie tylko metoda na usprawnienie procesów, ale także kompleksowa filozofia zarządzania. Promuje ona kulturę ciągłego doskonalenia, co jest niezwykle ważne w czasach, gdy technologia zmienia się z zawrotną prędkością. Firmy i specjaliści, którzy opanują zasady Lean IT, zyskują przewagę na konkurencyjnym rynku.

    Dzięki eliminacji marnotrawstwa, optymalizacji procesów i lepszej współpracy, Lean IT staje się kluczowym elementem budowania efektywności. Zasady te nie tylko wspierają rozwój specjalistów, ale również pomagają firmom osiągać cele biznesowe szybciej i efektywniej. W świecie, gdzie elastyczność i szybkość reakcji są na wagę złota, Lean IT zyskuje na znaczeniu, jako klucz do firmowego sukcesu.


    Źródła:
    Balicki, T., Załoga, G., Piechocki, A., Pierzchalski, B. (2022). Mapa Agile & Scrum: Jak się odnaleźć jako Scrum Master. Helion.
    Gładysz, B. (2019). Zastosowanie wybranych technik Lean Management w projektach informatycznych. Przegląd Organizacji, Nr 1 (948), 53–61.
    Kozioł, P., Wielki, J. (2017). Lean IT jako koncepcja racjonalizacji funkcjonowania infrastruktury informatycznej przedsiębiorstwa. Studia Ekonomiczne. Zeszyty Naukowe Uniwersytetu Ekonomicznego w Katowicach, Nr 342, 73–83.

  • IT w sektorze publicznym. Wyzwania i możliwości

    IT w sektorze publicznym. Wyzwania i możliwości

    Praca w sektorze publicznym, szczególnie w obszarze IT, bywa często niedoceniana przez specjalistów technologicznych, którzy zazwyczaj wybierają świat korporacji czy startupów. Jednak administracja publiczna oferuje szereg unikalnych wyzwań i możliwości, które mogą być niezwykle satysfakcjonujące zawodowo.

    Cyfrowa transformacja administracji publicznej

    Cyfrowa transformacja jest jednym z kluczowych aspektów modernizacji administracji publicznej. Wprowadzanie nowoczesnych technologii do urzędów ma na celu zwiększenie efektywności, przejrzystości oraz dostępności usług publicznych. Specjaliści IT odgrywają tutaj kluczową rolę, projektując, wdrażając i utrzymując systemy informatyczne, które wspierają te procesy. Jednym z przykładów jest ekosystem POL-on, najbogatsze źródło danych o polskiej nauce i szkolnictwie wyższym. POL-on od wielu lat jest utrzymywany i rozwijany przez Ośrodek Przetwarzania Informacji na zlecenie ministra nauki. Praca nad tak dużym i skomplikowanym projektem wymaga nie tylko zaawansowanej wiedzy technicznej, ale także umiejętności zarządzania zespołem oraz projektami. Wdrażanie tak zaawansowanych systemów to wyzwanie, które wymaga od specjalistów IT ciągłego doskonalenia umiejętności.

    Wyzwania w IT w sektorze publicznym

    Praca w IT w sektorze publicznym wiąże się z wieloma wyzwaniami. Procedury administracyjne są często bardziej skomplikowane i sformalizowane niż w sektorze prywatnym, co wymaga od specjalistów IT większej cierpliwości oraz umiejętności poruszania się w ramach skomplikowanych struktur organizacyjnych. Kolejnym wyzwaniem jest często ograniczony budżet na projekty IT. Ograniczenia finansowe mogą wpłynąć na możliwości wprowadzenia najnowszych technologii czy szybkiego reagowania na zmiany. Specjaliści IT muszą wykazywać się kreatywnością w znajdowaniu rozwiązań, które będą efektywne, ale także będą mieścić się w budżecie. Bezpieczeństwo danych to kolejny kluczowy aspekt pracy IT w administracji publicznej. Urzędy przechowują i przetwarzają ogromne ilości danych osobowych, dlatego ochrona tych danych jest priorytetem. Specjaliści IT muszą być na bieżąco z najnowszymi standardami i technologiami bezpieczeństwa, aby zapewnić ochronę przed zagrożeniami cybernetycznymi.

    Innowacje, biznes
    źródło: Freepik

    Możliwości rozwoju zawodowego

    Pomimo wyzwań, praca w sektorze publicznym oferuje wiele możliwości rozwoju zawodowego. Administracja publiczna stawia na ciągłe doskonalenie pracowników, oferując różnorodne programy szkoleniowe oraz możliwość zdobycia certyfikatów, takich jak SCRUM Master czy Agile PM Foundation, które są cenione również w sektorze prywatnym.

    Przykładem takiego podejścia jest program stażowy KomITywa, uruchomiony przez Ośrodek Przetwarzania Informacji (OPI). Program ten skierowany jest do studentów i absolwentów kierunków informatycznych i pokrewnych. Oferuje im możliwość zdobycia praktycznej wiedzy oraz doświadczenia poprzez pracę nad realnymi projektami. Stażyści mają możliwość pracy w elastycznych godzinach oraz wsparcia mentorów, co pozwala na rozwój zarówno kompetencji technicznych, jak i miękkich. Program KomITywa okazał się dużym sukcesem, przyciągając młodych specjalistów nie tylko z Polski, ale także z Ukrainy. Dał wielu młodym ludziom szansę na rozpoczęcie kariery w sektorze publicznym, a także na stałe zatrudnienie w OPI. Dzięki temu programowi blisko 20% stażystów i stażystek zdecydowało się na stałą współpracę z instytutem badawczym.

    Projekty, które zmieniają rzeczywistość

    Praca w IT w sektorze publicznym to także możliwość uczestniczenia w projektach, które mają realny wpływ na życie obywateli. Projekty takie jak POL-on, który jest największym tego typu systemem w Europie, czy RAD-on – źródło rzetelnych raportów, analiz i danych na temat sektora szkolnictwa wyższego i nauki w Polsce pokazują, że nowoczesne technologie mogą znacząco usprawnić działanie administracji oraz uczynić ją bardziej transparentną. Specjaliści IT w sektorze publicznym mają okazję pracować nad rozwiązaniami, które nie tylko zwiększają efektywność pracy urzędów, ale także przyczyniają się do rozwoju nauki i innowacyjnej gospodarki opartej na wiedzy. Przykłady takich projektów obejmują systemy wspomagania decyzji, algorytmy przetwarzania języka naturalnego czy sztucznej inteligencji. Dla wielu specjalistów IT praca w sektorze publicznym to nie tylko zawód, ale także misja. Możliwość wpływu na funkcjonowanie państwa, usprawnianie procesów administracyjnych oraz wprowadzanie innowacji, które przynoszą realne korzyści społeczeństwu. To aspekty, sprawiają, że praca w tym sektorze jest niezwykle satysfakcjonująca. Pozwala na realizację ambitnych projektów, które mają realne zastosowanie w życiu codziennym.

    Praca w IT w sektorze publicznym oferuje jednocześnie wiele możliwości rozwoju zawodowego oraz satysfakcji z wykonywanej pracy. Cyfrowa transformacja administracji, projekty o dużym znaczeniu społecznym, możliwość ciągłego doskonalenia oraz misja poprawy funkcjonowania państwa to tylko niektóre z aspektów, które przyciągają specjalistów IT do pracy w urzędach czy państwowych instytutach. Dla tych, którzy szukają stabilności, możliwości rozwoju oraz chcą pracować z misją, sektor publiczny może okazać się idealnym miejscem do budowania kariery.


    Anna Pira, OPI PIB

    Autorka: Anna Pira – absolwentka filologii południowosłowiańskiej i kulturoznawstwa na Uniwersytecie Łódzkim oraz studiów podyplomowych MBA Digital Transformation oraz Design Management na Politechnice Warszawskiej. Doktorantka Akademii Leona Koźmińskiego. Kierowniczka Działu Komunikacji Społecznej w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym, w którym jest odpowiedzialna za wdrażanie strategii rozwoju w obszarze komunikacji, promocję, marketing, działania informacyjno-promocyjne w obszarze nauki i szkolnictwa wyższego
     

  • Rewolucja AI ma twarz LLM-ów

    Rewolucja AI ma twarz LLM-ów

    „Rozpoczęła się następna rewolucja… Przedsiębiorstwa i kraje łączą się z firmą NVIDIA, aby zmienić warte biliony dolarów tradycyjne centra danych w nowoczesne serwerownie, budując nowy typ centrów danych – fabryki sztucznej inteligencji – aby wytwarzać nowy towar – sztuczną inteligencję” – napisał w informacji dla akcjonariuszy CEO i założyciel NVIDII Jensen Huang. Pod koniec maja 2024 NVIDIA zaprezentowała wyniki za ostatni kwartał, które przebiły ponownie oczekiwania rynku akcji. Przychody producenta poszybowały prawie o 300 procent rok do roku, a kolejki chętnych na ich produkty walczą o dostęp do kart graficznych, aby budować swoje modele i dostosowywać je do własnych celów biznesowych. Obecny potencjał dużych modeli językowych, a zwłaszcza ich zdolność do pracy z różnymi danymi jak tekst, obraz, dźwięk nadały im formę narzędzi do wszelkich zastosowań – nie tylko pomocy z pracą domową, ale też z szeregiem zadań biznesowych: od inteligentnego przetwarzania dokumentów, przez domenowych asystentów, po wszelakie prace w obszarach kreatywnego marketingu itp. Bardzo dużo zmieniło przejście z poziomu modelu obsługującego tylko tekst (tzw. unimodalność) na multimodalność.

    „Multimodalność to następna generacja tych dużych modeli, które mogą przetwarzać nie tylko tekst, ale także obrazy, dźwięk, wideo, a nawet inne modalności” – mówi Linxi Fan, naukowiec zajmujący się badaniami nad sztuczną inteligencją w firmie NVIDIA. Wszystko to razem wzięte daje nam niespotykane do tej pory możliwości interakcji z danymi. Nowe rozwiązania technologiczne zawsze były znakiem rewolucji w rozwoju człowieka; parę wieków temu mieliśmy rewolucję przemysłową, po niej motoryzacyjną czy środków masowego przekazu, a teraz przyszedł czas na rewolucję AI. Rewolucje, która zmieni warunki gry, ale też otworzy nowe obszary interakcji człowiek-komputer.

    Niewidzialne LLM-y

    Każda z poprzednich rewolucji technologicznych miała swoją dynamikę i swoje artefakty. Mieliśmy już maszynę parową, auta, telewizory, komputery czy samoloty. Teraz czas na rewolucję AI, obejmującą najbardziej obecnie rozpoznawalne duże modele językowe, zwane skrótowo LLM-ami (ang. Large Language Models).

    Wszystkie z rewolucyjnych artefaktów, gdy pierwszy raz je ukazano, wywoływały całe spektrum emocji; w tym radość, sceptycyzm, obawy i fascynację. Ale łączyło je jedno – fizyczna namacalność, można było je dotknąć, przenieść czy wskazać palcem innej osobie. Obecna rewolucja AI oparta jest na modelach, które dla większości ludzi są „nienamacalne”, są ujęte w usługach informatycznych, które wystawione w chmurze pozwalają komunikować się poprzez przeglądarkę internetową czy API. Miliony osób, które siedzą teraz przy komputerach z odpalonymi przeglądarkami, konsumują pośrednio duże modele językowe, działające na tysiącach kart GPU w odległych serwerowniach.

    Ile osób potrafi sobie wyobrazić taki model, który wymaga tysięcy kart GPU? Ile osób kiedykolwiek samodzielnie taki mniejszy model uruchomiło, będąc świadomym składowych elementów i jego zależności? Wszystko to nadaje tej rewolucji pewien magiczny charakter, ale też tworzy wiele pytań, np. jak bardzo ta rewolucja nas zniewoli, jak bardzo będziemy zależni od BigTechów, czy wiemy, co się dzieje z naszymi danymi, którymi zalewamy LLM-y pytając je o wszelakie sprawy, problemy, wyzwania, czy zadania? To wszystko wierzchołek góry lodowej, ale każda rewolucja zawsze miała wiele wyzwań, czy to regulacyjnych, czy też dotyczących kwestii własności i niezależności. Ta nie różni się od poprzednich, poza tym, że tempo jej postępu jest niebywałe.

    Kiedy zaczęła się rewolucja AI?

    Rewolucja AI, której obecnie doświadczamy, zaczęła się dużo wcześniej niż debiut aplikacji ChatGPT jesienią 2022 roku. Jedni wymieniają cykliczny konkurs ImageNet (konkurs dotyczył wykrywania obiektów i klasyfikacji obrazów) i zwycięstwo sieci konwolucyjnej AlexNet w 2012, jako pierwszy silny sygnał nadchodzących zmian, tzw. pierwszy znamienny znak, że głębokie sieci neuronowe mogą wywrócić porządek rzeczy. Przez wiele lat uczestnicy poprzednich edycji tego konkursu walczyli ze sobą poprawiając nieznacznie wyniki, nagle użycie głębokich sieci neuronowych przesunęło skuteczność zdecydowanie bardziej niż wcześniej. Kolejne edycje tego konkursu jeszcze bardziej podnosiły poprzeczkę, aż doszliśmy do poziomów, gdzie maszyny zaczęły wygrywać z człowiekiem w tym konkretnym zadaniu komputerowej wizji. Tak, to komputerowa wizja (ang. computer vision) była pierwszą dziedziną, gdzie do masowej publiki dotarło, że AI może dorównać człowiekowi, a potem i z nim wygrać. Następnie pojawiły się kolejne, liczne rywalizacje człowiek vs AI, m.in. skomplikowane gry (np. Go) czy konkursy typu „Jeden z Dziesięciu” (np. Jeopardy). W raz z rozwojem kolejnych metod okazało się, że AI potrafi nie tylko skutecznie analizować dane, ale też je generować. Pojawiły się piękne obrazy tworzone przez AI (np. DALL-E) na bazie słownych opisów. Modele text-to-image zdolne do malowania w zadanym stylu malarskim rozbudziły fantazje i nadzieje. Wydawało się, że aforyzm „obraz wart jest tysiąca słów” dalej jest bez wątpienia prawdziwy i to właśnie obraz cenniejszy jest niż sekwencja słów. Jednak to dopiero tekstowy asystent o nazwie ChatGPT wywołał masowe poruszenie, daleko wychodzące poza grono specjalistów i geeków. Czemu to słowo wygrało z obrazem? Dlaczego tekstowa rozmowa przysłoniła piękne malunki?

    Słowo wygrało z obrazem

    Na to pytanie nie ma łatwej i dokładnej odpowiedzi. Obrazy zawierają mnóstwo informacji i najczęściej, aby opisać obraz potrzebujemy setek, jak nie tysięcy słów, ale też i czasu, aby je wypowiedzieć, na końcu i tak stwierdzimy, że te słowa nie oddają wszystkiego co widzimy. Obrazy o wysokiej dawce informacyjnej powstają relatywnie długo, wymagają warunków do ich wytwarzania. Zdolności graficzne (wystarczające do sprawnego malowania) są też dość rzadkim zestawem kompetencji w dużych populacjach. Dodatkowo komunikacja obrazami na poziomie konwersacji jest bardziej kosztowna energetycznie niż wymiana słów. Wszystko to prawdopodobnie stało się cząstkową przyczyną, dlaczego ludzkość nie komunikuje się ze sobą rysując obrazy. Nasz rozwój oparliśmy na mowie i zapisie jej z użyciem znaków, które tworzą słowa. Słowo stało się powszechnym, tanim nośnikiem informacji między członkami społeczności, a potem zapisane na kamieniu/ pergaminie stało się nośnikiem informacji dla kolejnych pokoleń. To słowami myślimy i marzymy, wybrzmiewają one w naszych głowach nie będąc słyszanymi. Słowo, a potem konstrukcje na nim oparte, pozwoliły nam w coraz to bardziej skomplikowany sposób komunikować się i opisywać sytuacje, emocje czy plany. Zacytuję fragment Ewangelii, aby uświadomić czytelnikowi, jak język mówiony i pisany, w tym właśnie jego cząstkowy element – słowo, jest kluczowy od tysięcy lat.

    „Na początku było Słowo, a Słowo było u Boga, i Bogiem było Słowo…Wszystko przez Nie się stało, a bez Niego nic się nie stało, co się stało. W Nim było życie, a życie było światłością ludzi…”

    Słowa Ewangelii według świętego Jana, wybrane frazy

    Słowo ma moc sprawczą, ono raduje i smuci, porywa i tłamsi, miłuje i złości. Na nim oparliśmy swoje dziedzictwo człowieczeństwa. A słowo właśnie jest paliwem LLM-ów. Słowa w postaci korpusów tekstów, instrukcji, preferencji prowadzą do finalnego produktu w postaci modelu. Czym w takim razie jest ten tajemniczy LLM, jeśli wiemy, że napędza go słowo, a na wyjściu generuje odpowiedzi słowo po słowie? Teraz postaram się w jednym akapicie zdefiniować. Czym jest ten twór, który kształtuje obecną rewolucję AI.

    Czym właściwie są LLM-y?

    LLM – to generatywny neuronowy model językowy liczący co najmniej dziesiątki czy nawet setki miliardów parametrów (wag). Został on wstępnie wytrenowany na ogromnych zbiorach danych tekstowych, liczy terabajty danych (po tej fazie uczenia, model jaki uzyskujemy nazywa się modelem fundamentalnym), potrafi generować tekst wyjściowy słowo po słowie na podstawie podanego mu wejściowego tekstu (zwanego promptem). Kolejna faza uczenia nazywa się strojeniem na dużych korpusach instrukcji, które zawierają różne polecenia/ zadania z przykładowymi ich rozwiązaniami, np. streść tekst, odpowiedz na pytanie, napisz mi przemówienie. Trzeci etap uczenia nazywany jest wychowaniem wystrojonego modelu na bazie korpusów preferencji (ludzie oceniają odpowiedzi modelu, co jest potem wykorzystywane do jego optymalizacji). Wszystkie te razem połączone etapy uczenia dają nam finalny, konwersacyjny model, np. ChatGPT.

    Polska a rewolucja AI

    Na końcu swojego wywodu o rewolucji AI pragnę zwrócić uwagę na wątek polskości w tej rewolucji, a dokładniej na pojęcie konkurencyjność gospodarki opartej na wiedzy. Polska przestaje być konkurencyjna ze względu na koszty pracy (np. już widać trend, w którym zakłady z Polski przenoszą się tańszych krajów w Azji). Przyszłość naszej gospodarki będzie zależała od tego, jak szybko i głęboko wdrożymy AI do naszych usług biznesowych czy sfery publicznej. Bo to zdeterminuje, czy uda nam się opuścić pewną strefę ograniczonego wzrostu i awansować do grona krajów kreujących rozwiązania, a nie dostarczających tylko kapitał ludzki do ich wykorzystywania.


    Autor: dr inż. Marek Kozłowski – Kierownik AI Labu w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym, gdzie zajmuje się tworzeniem oprogramowania wzbogaconego inteligentnymi metodami przetwarzania danych (głównie danych tekstowych i obrazowych). Jego zainteresowania dotyczą przetwarzania języka naturalnego, eksploracji danych i uczenia maszynowego. Napisał ponad 40 publikacji naukowych z zakresu semantycznego przetwarzania tekstów i uczenia maszynowego. W swojej karierze brał udział w wielu komercyjnych projektach badawczych, które dotyczyły uczenia maszynowego dla firm takich jak np.: Samsung, France Telecom, Orange Labs, Millward Brown, Vive Textile Recycling czy Connectis. Brał udział w wielu międzynarodowych konkursach uczenia maszynowego m.in IEEE BigData 2019 Cup.

  • W pogoni za rynkiem pracy – mikropoświadczenia nowym kierunkiem w szkolnictwie wyższym

    W pogoni za rynkiem pracy – mikropoświadczenia nowym kierunkiem w szkolnictwie wyższym

    Aktywności edukacyjne, które kończą się uzyskaniem mikropoświadczenia, ukierunkowane są na konkretną wiedzę, umiejętności i kompetencje, odpowiadające na potrzeby społeczne, osobiste, kulturowe lub rynku pracy. Rozwój systemów mikropoświadczeń to coraz istotniejszy trend w dziedzinie edukacji w wielu krajach. Dynamicznie zmieniający się rynek pracy wymaga od swoich uczestników szybkiego nabywania nowych lub doskonalenia posiadanych kompetencji. Swoją formą i cechami mikropoświadczenia wychodzą naprzeciw tym oczekiwaniom.

    Wraz z rosnącą popularnością mikropoświadczeń pojawiła się potrzeba zdiagnozowania, w jakim stopniu polskie uczelnie są gotowe na wdrożenie ich do oferty edukacyjnej, jakie widzą szanse i zagrożenia jako ich potencjalni wydawcy, a także jak odbierają ten pomysł i czego oczekują ich użytkownicy. Odpowiedzi na te pytania badaczki z Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego poszukiwały w trakcie przeprowadzonych na zlecenie Ministerstwa Nauki i Szkolnictwa Wyższego wywiadów i warsztatów z władzami i przedstawicielami uczelni, studentami i absolwentami oraz osobami odpowiedzialnymi za organizację i prowadzenie zajęć w ramach otwartych kursów i szkoleń na uczelniach.

    Mikropoświadczenia odpowiedzią na zmiany społeczno-gospodarcze

    Szereg spodziewanych korzyści zawodowych to wciąż jeden z ważniejszych czynników motywujących do podjęcia studiów. Niemniej jednak, opinie studentów i absolwentów na temat sposobu, w jaki studia przygotowują do funkcjonowania na rynku pracy, są rozbieżne. Część badanych wciąż docenia je za szeroką i kompleksową wiedzę, jaką dają, jasno określony program oraz dyplom, który jest ich zwieńczeniem. Dominuje jednak przekonanie, że sam dyplom uczelni coraz rzadziej stanowi gwarancję znalezienia atrakcyjnego zatrudnienia. Przedstawiciele uczelni dostrzegają natomiast, że jednym z aktualnych wyzwań szkolnictwa wyższego jest zmiana preferencji edukacyjnych młodych ludzi. W bilansie kosztów i zysków kontynuacja nauki, na przykład na studiach drugiego stopnia, konkuruje (i nierzadko przegrywa) z rozpoczęciem kariery zawodowej lub zdobywaniem wiedzy i umiejętności na specjalistycznych kursach i szkoleniach. Uelastycznienie i poszerzenie oferty edukacyjnej o aktywności edukacyjne, które kończą się mikropoświadczeniami, mogłoby odpowiedzieć nie tylko na potrzeby studentów, ale i innych dorosłych w procesie uczenia się przez całe życie.

    Gwarancja jakości i większe możliwości zdobywania wiedzy

    O wartości mikropoświadczeń, zdaniem uczestniczących w badaniu studentów i absolwentów, decydować będą przede wszystkim renoma wydającej je instytucji oraz weryfikacja jakości. Ten drugi aspekt to oczekiwanie, że mikropoświadczenia będą nie tylko potwierdzeniem, że nabyte wiedza i kompetencje zostały rzetelnie zweryfikowane, ale i tego, że zweryfikowana została jakość samych aktywności edukacyjnych, które zakończą się uzyskaniem mikropoświadczenia. Wynika to ze świadomości dużej podaży (nie zawsze kompetentnych) firm oferujących kursy i szkolenia. Wdrożenie mikropoświadczeń w szkolnictwie wyższym może ułatwić i uelastycznić proces zdobywania nowej wiedzy i kompetencji, a także skrócić tok nauczania. System mikropoświadczeń to szansa na zdobywanie certyfikatów poświadczających bardzo konkretne, a jednocześnie zgodne z zainteresowaniami i obraną ścieżką rozwoju umiejętności. Mikropoświadczenia mogą okazać się cenne dla osób, którym, z różnych przyczyn, nie uda się ukończyć podjętych studiów – przez „cząstkowe” potwierdzenia nabytych wiedzy i kompetencji. Możliwości, jakie niosą ze sobą mikropoświadczenia, mogą się przełożyć na większe szanse zdobywającej je osoby na rynku pracy.

    Oczekiwania użytkowników

    Potencjalni odbiorcy mikropoświadczeń – badani studenci i absolwenci – preferują mikropoświadczenia wydawane w formie elektronicznej. Cyfrowe mikropoświadczenia to możliwość załączenia ich do elektronicznego CV, złożenia w kilku równoległych procesach rekrutacyjnych, ale i kontrola autentyczności dokumentów. Skrajne emocje budzi pomysł, aby ich przechowywaniu służyła aplikacja rządowa, np. mObywatel. Głosy za takim rozwiązaniem odnoszą się do zalet płynących z wykorzystania istniejącej, rozwiniętej i bezpiecznej infrastruktury. Kontrargumenty to: inna ranga mikropoświadczenia niż dokumentów przechowywanych w systemie, brak zaufania do jego bezpieczeństwa czy wreszcie wątpliwości, czy w aplikacji możliwe będzie wdrożenie określonych, pożądanych przez potencjalnych użytkowników, funkcji. Wśród tych ostatnich studenci i absolwenci szczególnie często wymieniali opcję automatycznego tłumaczenia mikropoświadczeń, przede wszystkim na język angielski. Aplikacja lub strona służąca gromadzeniu mikropoświadczeń powinna posiadać funkcję udostępniania widoku profilu innym osobom, np. potencjalnemu pracodawcy w procesie rekrutacji. Funkcja miałaby nie tylko ułatwić pracodawcom i rekruterom przeglądanie i weryfikowanie profili kandydatów do pracy, ale i dać możliwość wyszukiwania osób o konkretnych kwalifikacjach i oferowania im pracy. Jednocześnie, właściciel mikropoświadczeń powinien mieć pełną kontrolę nad zakresem informacji, które są udostępniane. Pożądaną funkcjonalnością jest również wyszukiwarka – form edukacyjnych zwieńczonych uzyskaniem mikropoświadczenia czy instytucji, które mają takie aktywności w ofercie. Wśród pomysłów wskazywano także rozwiązania umożliwiające organizowanie zgromadzonych w systemie mikropoświadczeń, integrację z serwisami społecznościowymi czy łączenie ich w większe pakiety lub ścieżki.

    Świadomość i promocja

    Wyzwaniem pozostaje nadal niska społeczna świadomość tego, czym są i jakie korzyści mogą wnieśćmikropoświadczenia wdrożone na większą skalę. Wśród przedstawicieli uczelni już sama znajomość koncepcji była różna – od doświadczenia w działaniach związanych z planowaniem czy wdrażaniem mikropoświadczeń w ich podmiotach po zupełny brak wiedzy. Dla części studentów i absolwentów nie do końca jasna jest różnica między mikropoświadczeniami a już funkcjonującymi certyfikatami. Wątpliwości pojawiają się także w kontekście honorowania mikropoświadczeń na rynku pracy. Czy firmy, w szczególności te mniejsze, będą je uznawać? Czy mikropoświadczenie nie będzie traktowane jak kolejny „zbędny kwitek”? Choć studenci i absolwenci dostrzegają, że ciągłe zmiany w branżach, w których funkcjonują, wymagają nieustannego podnoszenia kwalifikacji, ich opinie na temat użyteczności mikropoświadczeń w motywowaniu do uczenia się przez całe życie są różne. Części z nich zdobywanie mikropoświadczeń kojarzy się z motywującą grywalizacją nauki. Bardziej sceptyczni skłaniają się ku stwierdzeniu, że kształcić będą się nadal tylko te osoby, które i tak by to robiły.

    Niezbędnym elementem procesu wdrażania i upowszechniania mikropoświadczeń jest zatem komunikowanie ich korzyści wszystkim zainteresowanym grupom – osobom uczącym się, wydawcom mikropoświadczeń, czy wreszcie pracodawcom. Elementem komunikacji powinno być także budowanie zaufania do rozwiązań, które zostaną wykorzystane do przechowywania mikropoświadczeń – w kontekście bezpieczeństwa tych dokumentów oraz danych ich posiadaczy. W budowaniu oferty mikropoświadczeń – wysokiej jakości, wystandaryzowanej i użytecznej – nieodzowna jest również współpraca z otoczeniem społeczno-gospodarczym. Ważnym krokiem ku wdrożeniu mikropoświadczeń w szkolnictwie wyższym będzie także nawiązanie współpracy między uczelniami a przedstawicielami poszczególnych branż w celu wypracowania takiej oferty mikropoświadczeń, która w jak największym stopniu będzie odpowiadać aktualnym potrzebom rynku pracy.

    Więcej o mikropoświadczeniach przeczytaj w raporcie – Raport „Mikropoświadczenia nowym kierunkiem rozwoju szkolnictwa wyższego” sfinansowano ze środków Ministra Nauki. Opracował go zespół ekspertek OPI w składzie: Paulina Wiktorko, dr Anna Łobodzińska, Paulina Drężek-Kłoczko, dr Marzena Feldy.


    dr Anna Łobodzińska, OPI PIB

    Autorka: dr Anna Łobodzińska
    Adiunktka w Laboratorium Analiz Statystycznych w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym. Doktor nauk społecznych. Posiada doświadczenie w projektach badawczych w obszarze nauki i szkolnictwa wyższego, migracji oraz rozwoju społeczno-gospodarczego regionów. Współautorka raportów poświęconych drop-outowi na polskich uczelniach, perspektywom wdrażania mikropoświadczeń w szkolnictwie wyższym oraz stanowi otwartej nauki w Polsce.

  • Naukowcy w centrum uwagi. Jak UX wspiera sektor nauki i szkolnictwa wyższego

    Naukowcy w centrum uwagi. Jak UX wspiera sektor nauki i szkolnictwa wyższego

    Praca naukowa wymaga dzisiaj sprzyjającego środowiska cyfrowego. Produkty cyfrowe mogą odciążać naukowców w obowiązkach sprawozdawczych, ułatwiać uzyskanie finansowania, a także wspierać ich w codziennej pracy badawczej czy edukacyjnej. Liczne systemy i aplikacje są niezbędne również w realizacji zadań państwa przez pracowników administracji sektora nauki i szkolnictwa wyższego. Dobrze zaprojektowane, łatwe w obsłudze produkty cyfrowe mogą znacznie usprawnić wiele procesów i tym samym wpływać na rozwój nauki i innowacyjności w kraju.

    Instytuty badawcze, takie jak Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB) oraz firmy technologiczne z coraz większą uwagą podchodzą do projektowania interfejsów użytkownika (UI) oraz doświadczenia użytkownika (UX), aby zapewnić swoim użytkownikom jak najlepsze narzędzia pracy. 

    Projektowanie oprogramowania dla naukowców i administracji państwowej sektora nauki i szkolnictwa wyższego to ogromna odpowiedzialność. Wymaga nie tylko zaawansowanej wiedzy technicznej i zastosowania najnowszych technologii informatycznych. To przede wszystkim wyzwanie dla specjalistów UX: potrzeba głębokiego zrozumienia potrzeb i sposobu pracy wyjątkowych odbiorców naszych usług.

    Cykl projektowy UX

    W OPI stosujemy cykl projektowy UX, który na każdym etapie skupia się na tym, by zapewnić użytkownikom optymalne doświadczenie. Cykl ten obejmuje kilka kluczowych faz:

    1. Badania i rozpoznanie potrzeb

    Pierwszym krokiem jest gruntowne zrozumienie potrzeb i celów naukowców czy pracowników administracji. To wymaga przeprowadzenia badań UX przez nasz zespół badawczy. Badania mogą obejmować wywiady z użytkownikami, obserwację ich codziennej pracy oraz analizę podobnych produktów obecnych na rynku. Poznanie kontekstu, w którym użytkownicy używają produktu cyfrowego, jest kluczowe dla zaprojektowania przyjaznego i efektywnego interfejsu.

    2. Projektowanie

    Na podstawie zebranych danych zespół UX może przejść do projektowania interfejsu. W tym procesie jako projektanci koncentrujemy się na tworzeniu intuicyjnych i efektywnych rozwiązań, które na przykład ułatwią naukowcom dokumentowanie i raportowanie wyników pracy lub wnioskowanie w ramach programów grantowych. Projektujemy proste w użyciu funkcjonalności, intuicyjną nawigację, zrozumiałą warstwę językową, a przy tym cały czas pracujemy nad spójnością wizualną i funkcjonalną.

    3. Testowanie

    Po zaprojektowaniu interfejsu następuje faza testowania, w której użytkownicy pod okiem testerów i badaczy mają okazję przetestować produkt. W ten sposób identyfikujemy miejsca wymagające poprawek i optymalizacji jeszcze przed udostępnieniem finalnej wersji.

    4. Wdrażanie i doskonalenie

    Po testach oprogramowanie jest wdrażane, ale proces projektowy UX się nie kończy. Nadal monitorujemy działanie aplikacji i doświadczenia naszych użytkowników. Zbieramy od nich feedback i analizujemy sposób, w jaki używają produktu. Uwzględniamy ich zmieniające się potrzeby i kontynuujemy prace nad użytecznością interfejsu. Co więcej, w dynamicznej rzeczywistości prawnej, jako zespół UX musimy szybko reagować na zmiany w ustawach i rozporządzeniach, które bezpośrednio regulują działanie projektowanych przez nas usług i produktów.

    Badania UX

    Badania UX odgrywają kluczową rolę we wszystkich fazach projektowych. Pozwalają one zrozumieć, jakie cele i potrzeby mają nasi użytkownicy. Pomagają identyfikować ich problemy oraz śledzić zmiany w zachowaniach użytkowników. Metody badawcze, takie jak testy użyteczności, analiza behawioralna oraz badania nad dostępnością cyfrową, są niezastąpionym narzędziem w tworzeniu produktów, które spełnią oczekiwania naukowców i pracowników administracji.

    Dostępność cyfrowa

    Zapewnienie dostępu do narzędzi badawczych jak najliczniejszej grupie użytkowników – na przykład osobom z różnymi rodzajami niepełnosprawności czy osobom neuroróżnorodnym –jest dla nas fundamentalnym aspektem etycznym i praktycznym. Stała współpraca z ekspertem ds. dostępności cyfrowej pozwala nam uwzględnić różnorodność potrzeb użytkowników oraz zadbać o zgodność produktów z wymaganiami prawnymi. Kompetencje w tym zakresie rozwijamy w całym zespole UX.

    Sztuczna inteligencja

    Wykorzystanie sztucznej inteligencji (AI) w systemach dla naukowców może znacznie zwiększyć funkcjonalność i efektywność produktów cyfrowych. AI może być wykorzystywana do automatyzacji procesów analizy danych, generowania raportów czy też identyfikowania wzorców w dużych zbiorach danych – co najlepiej obrazuje nasz system antyplagiatowy JSA. Jednak kluczową kwestią jest zapewnienie, aby algorytmy AI były transparentne, interpretowalne oraz wolne od uprzedzeń. Tylko wtedy naukowcy będą mogli zaufać narzędziom, które wykorzystują AI.

    Zaangażowanie pracowników

    Sukces projektowania oprogramowania dla naukowców zależy od zaangażowania całego zespołu, włączając w to projektantów UX, projektantów UI, projektantów treści oraz specjalistów ds. dostępności cyfrowej. Ich współpraca i kreatywność są kluczowe dla stworzenia narzędzi, które spełnią oczekiwania użytkowników, a jednocześnie będą wspierać realizację zadań państwa.

    Projektowanie produktów cyfrowych dla sektora nauki i szkolnictwa wyższego wymaga więc holistycznego podejścia, które uwzględnia zarówno techniczne aspekty, jak i potrzeby użytkowników. Wykorzystanie metodologii UX oraz zaangażowanie specjalistów z różnych obszarów, takich jak dostępność cyfrowa czy sztuczna inteligencja, pozwala stworzyć narzędzia, które zapewniają płynne i sprawne procesy w administracji, a także stymulują rozwój nauki i badań.


    Waldemar Wieckowski

    Autor: Waldemar Więckowski – Jest liderem Zespołu Projektowania i Wdrażania Aplikacji  w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym, gdzie koordynuje pracę zespołu projektantów i zajmuje się projektowaniem doświadczeń użytkownika. Ma ponad 20 lat doświadczenia w branży IT. Pracował przy projektach takich jak Grono.net czy Booksy.

  • To może być pierwszy tej skali polski odpowiednik ChatGPT. Sukces współpracy PG i OPI w obszarze AI

    To może być pierwszy tej skali polski odpowiednik ChatGPT. Sukces współpracy PG i OPI w obszarze AI

    Politechnika Gdańska i AI Lab z Ośrodka Przetwarzania Informacji (OPI) – Państwowego Instytutu Badawczego opracowały polskojęzyczne generatywne neuronowe modele językowe na bazie terabajta danych tekstowych wyłącznie w języku polskim. Qra to pierwszy tej skali i najlepszy w modelowaniu języka polskiego odpowiednik otwartych narzędzi Mety czy Mistral AI. Qra lepiej rozumie treści w języku polskim, lepiej rozumie pytania zadawane w tym języku i lepiej sama tworzy spójne teksty.

    PG i OPI opracowały polskojęzyczne generatywne modele językowe o nazwie Qra, które zostały utworzone na podstawie korpusu danych zawierającego teksty wyłącznie w języku polskim. Wykorzystany korpus liczył inicjalnie łącznie prawie 2TB surowych danych tekstowych, w wyniku procesu czyszczenia i deduplikacji uległ prawie dwukrotnemu zmniejszeniu, aby zachować najlepszej jakości unikalne treści. To pierwszy model generatywny wstępnie wytrenowany na tak dużym zasobie polskich tekstów, do którego uczenia użyto wielkich mocy obliczeniowych. Dla porównania modele Llama, Mistral czy GPT są w większości trenowane na danych angielskojęzycznych, a jedynie ułamek procenta korpusu treningowego stanowią dane w języku polskim.

    Dzięki STOS najbardziej złożoną wersję modelu wytrenowano w miesiąc

    Środowisko obliczeniowe dedykowane pod budowę modeli sztucznej inteligencji powstało na Politechnice Gdańskiej w Centrum Kompetencji STOS, jednym z najnowocześniejszych centrów IT w tej części Europy, gdzie znajduje się superkomputer Kraken. W procesie wykorzystano klaster 21 kart graficznych NVidia A100 80GB. Przygotowanie środowiska, utworzenie narzędzi i modeli oraz ich trenowanie (w oparciu m.in. o treści z takich obszarów jak prawo, technologia, nauki społeczne, biomedycyna, religia czy sport) i testowanie zajęło zespołom około pół roku. Dzięki rozbudowanej infrastrukturze CK STOS właściwy proces trenowania w przypadku najbardziej złożonego z modeli został skrócony z lat do około miesiąca.

    Qra lepiej posługuje się językiem polskim

    W wyniku współpracy PG i OPI powstały trzy modele, które różnią się złożonością, tj. Qra 1B, Qra 7B, Qra 13B. Modele Qra 7B oraz Qra 13B uzyskują istotnie lepszy wynik perplexity, czyli zdolności do modelowania języka polskiego w zakresie jego rozumienia, warstwy leksykalnej, czy samej gramatyki, niż oryginalne modele Llama-2-7b-hf (Meta) oraz Mistral-7B-v0.1 (Mistral-AI).

    Testy pomiaru perplexity przeprowadzono m.in. na zbiorze pierwszych 10 tysięcy zdań ze zbioru testowego PolEval-2018 oraz dodatkowo przetestowano modele na zbiorze 5 tysięcy długich i bardziej wymagających dokumentów napisanych w 2024 roku.

    Pod rozwiązania wymagające lepszego rozumienia języka

    Modele Qra będą stanowić podstawę rozwiązań informatycznych do obsługi spraw i procesów, które wymagają lepszego zrozumienia języka polskiego.

    Na tym etapie Qra jest fundamentalnym modelem językowym, który potrafi generować poprawne gramatycznie i stylistycznie odpowiedzi w języku polskim. Tworzone treści są bardzo wysokiej jakości, co potwierdza m.in. miara perplexity. Teraz zespół rozpocznie pracę nad strojeniem modeli, aby zweryfikować ich możliwości pod kątem takich zadań, jak klasyfikacja tekstów, dokonywanie ich streszczeń, odpowiadania na pytania.

    Opracowane modele zostały upublicznione w dedykowanym repozytorium OPI-PG na platformie huggingface. Każdy może pobrać model i dostosować go do swojej dziedziny i problemów czy zadań jak np. udzielanie odpowiedzi.

  • Cyfrowe technologie w humanistyce

    Cyfrowe technologie w humanistyce

    Nowoczesne technologie cyfrowe mają zastosowanie w większości dziedzin nauki i przemysłu. To już nie tylko narzędzia, które wykorzystujemy głównie do skomplikowanych obliczeń. Doskonałym przykładem zastosowania technologii ICT w humanistyce, w tym w archeologii, jest projekt DARIAH-PL. Dzięki tej inicjatywie 16 polskich instytucji naukowych zakupiło urządzenia i oprogramowanie oraz opracowało szereg rozwiązań, z których będą wspólnie korzystać by rozwijać różne dziedziny humanistyki. Zaawansowana aparatura oraz możliwość przetwarzania dużych ilości danych pozwalają na pogłębienie i szerokie udostepnienie wiedzy o rodzimej kulturze, języku i sztuce w stopniu dotąd niedostępnym dla badaczy oraz w tempie, które oszczędza im lata żmudnej pracy. 

    ICT wspiera muzykologię i archeologię

    Nowa infrastruktura badawcza rozmieszczona w całej Polsce nazwana została Dariah.lab. Główne obszary tematyczne przez nią obsługiwane to: geoarcheologia, dziedzictwo kulturowe i muzykologia. W tej pierwszej dziedzinie intensywne działania prowadzi Uniwersytet Marii Curie-Skłodowskiej (UMCS) w Lublinie. Naukowcy z kilku wydziałów założyli tam Centrum Sztucznej Inteligencji i Modelowania Komputerowego, które wykorzystuje sprzęt Dariah.lab, taki jak georadar, dron i magnetometr, do tzw. badań nieinwazyjnych. Metody te pozwalają stwierdzić, co jest pod ziemią, bez konieczności prowadzenia wykopalisk. Wykorzystano je już w zabytkowym klasztorze kamedulskim w Wigrach, którego fundatorem był król Jan Kazimierz, a który po rozbiorach Polski miał bardzo burzliwą historię. Próbując rozszyfrować jego dzieje, naukowcy skorzystali z nowoczesnego sprzętu, by określić położenie zasypanych piwnic. Zlokalizowano także wejścia do krypt w kościele. Badania te pomogły w dokładnym zaplanowaniu prac wykopaliskowych.

    Innego rodzaju zagadkę naukowcy rozwiązują w Wojnowicach pod Ożarowem. Na zdjęciach pola umieszczonych w Google Maps zauważyli oni strukturę, która może być reliktem konstrukcji wybudowanej przez mieszkańców w czasach neolitu, czyli ok. 6-5 tysięcy lat temu. Wyraźny kształt tej struktury i istnienie w jej sąsiedztwie śladów po dawnych jamach i paleniskach potwierdziły zdjęcia z drona, badanie LiDAR (laserowe skanowanie lotnicze) oraz badania georadarowe i geomagnetyczne. Dodatkowo na powierzchni znaleziono zabytki ceramiczne. Teraz badacze mogą dokładnie zaplanować kolejne etapy działań na tym intrygującym stanowisku archeologicznym.

    Mobilne laboratorium digitalizacyjne w Bukowinie Karpackiej

    Fascynującym przykładem rodzimego dziedzictwa kulturowego niedostępnego na co dzień mieszkańcom naszego kraju jest kultura Polaków żyjących na Bukowinie Karpackiej – na pograniczu Rumunii i Ukrainy. Polacy zaczęli osiedlać się tam już w XIV wieku, a szczyt osadnictwa przypadł na pierwsze dekady XIX wieku. Przesiedlały się całe rodziny rolnicze oraz górnicze. Pieczołowicie pielęgnowały one bogatą kulturę wiejską, która przetrwała, przyjmując pewne wpływy kultury rumuńskiej. Przed II wojną światową na rumuńskiej Bukowinie żyło aż 80 tysięcy Polaków. Obecnie liczba ta nieznacznie przekracza 2 tysiące. 

    Niszczejącą kulturę materialną oraz zanikający folklor i tradycje, kultywowane główne przez najstarsze pokolenie tej społeczności, postanowili uwiecznić badacze z Instytutu Slawistyki PAN. We współpracy z Centrum Kompetencji Cyfrowych Uniwersytetu Warszawskiego mogli oni skorzystać z mobilnego laboratorium digitalizacyjnego, które powstało w ramach projektu DARIAH-PL. Zawiera ono m.in. kamery, aparaty fotograficzne, skanery i drony. Laboratorium pojechało na pierwszą wyprawę dokumentacyjną we wrześniu 2023 r. Naukowcy powrócili z 6 terabajtami materiałów zarejestrowanych w trzech polskich miejscowościach: Nowy Sołoniec, Pojana Mikuli i Plesza.

    Dron po dokumentacji z powietrza wsi polskich na Bukowinie Karpackiej
    Dron po dokumentacji z powietrza wsi polskich na Bukowinie Karpackiej / źródło: OPI PIB

    Dokumentowano bieżące wydarzenia religijne, tradycyjne pieśni i stroje – w tym zwyczajowe sposoby wiązania chust nadal praktykowane przez seniorki – oraz przygotowanie domowych specjalności kulinarnych. Szczególnie spektakularny był tradycyjny kobiecy obrzęd łupaczki, czyli żniw kukurydzianych (na zdjęciu). Dużo uwagi badacze poświęcili nagraniom wideo, by uchwycić jak najwięcej z opowieści mieszkańców, zwyczajów i działań artystycznych. Wykonali także dokumentację lokalnej architektury i obiektów zabytkowych z ziemi i z powietrza, aby odwzorować je w przestrzeni wirtualnej. Z wykorzystaniem kamer dookólnych zarejestrowali topografię miejscowości i tradycyjne przestrzenie domów i gospodarstw. Drony sfilmowały z powietrza cały obszar tych malowniczych terenów. Poza tym naukowcy prowadzili tradycyjną digitalizację archiwalnych dokumentów i fotografii. Zgromadzone materiały zostaną udostępnione na powstającej platformie internetowej, która będzie stanowić skarbnicę wiedzy o polskim dziedzictwie kulturowym na Bukowinie i w Naddniestrzu.

    Nowoczesne technologie, humanistyka i biznes

    Skanery laserowe czy drony można wykorzystać do tworzenia czysto biznesowych produktów choćby z branży turystycznej, architektonicznej czy rozrywkowej (gry komputerowe i wirtualna rzeczywistość). Z kolei kamery VR/ 360° i sprzęt dźwiękowy, które służą badaczom do dokumentowania zanikających obyczajów, jak w opisanej tydzień temu społeczności polskiej na Bukowinie Karpackiej, mogą być wykorzystywane do transmisji biznesowych wydarzeń czy spektakli artystycznych. Agencje reklamowe i telewizje komercyjnie skorzystają z dostępnej bazy sprzętowej Dariah.lab do tworzenia innowacyjnych treści multimedialnych i filmowych w nowych technologiach, choćby związanych z VR3D.

    Różnorodność sprzętu i technik prezentacyjnych umożliwia zastosowanie wielu technologii jednocześnie. Ciekawy przykład stanowi wirtualna wycieczka po pałacu rodziny Chłapowskich w wielkopolskiej wsi Turew. Przygotowana została przez Poznańskie Centrum Superkomputerowo-Sieciowe– lidera projektu DARIAH-PL. Przy opracowaniu wycieczki wykorzystano jednocześnie skanery laserowe, drony, mikrofony dźwięku przestrzennego, kamery i aparaty cyfrowe wysokiej rozdzielczości. Wycieczka, m.in. w technologii VR, będzie wkrótce udostępniona internautom.

    „To ekscytujące, jak po stuleciach rozdziału humanistyki i technologii, historia nauki zatacza koło, by znów połączyć te dziedziny. Dzięki infrastrukturze Dariah.lab możemy mieć w tym swój udział. Cieszę się, że fundusze unijne pomagają w realizacji działań ważnych dla polskiego dziedzictwa kulturowego.”

    podsumowuje Joanna Kuszlik-Cichosz, zastępca dyrektora w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym.

    Projekt „Cyfrowa infrastruktura badawcza dla humanistyki i nauk o sztuce DARIAH-PL” realizowany jest od początku stycznia 2021 r. do grudnia 2023 r. Liderem konsorcjum naukowego, które stworzyło Dariah.lab, jest Poznańskie Centrum Superkomputerowo-Sieciowe przy Instytucie Chemii Bioorganicznej PAN. Jest to największe konsorcjum polskiej humanistyki, którego członkami są uznane ośrodki naukowe z całej Polski. Projekt uzyskał dofinansowanie UE w wysokości 99,8 mln zł w ramach Programu Operacyjnego Inteligentny Rozwój. Za wyłonienie projektów do dofinansowania i ich rozliczenie odpowiada Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB). Poza dystrybucją środków unijnych dla polskich jednostek naukowych OPI zajmuje się tworzeniem systemów informatycznych dla nauki i szkolnictwa wyższego; prowadzi także badania naukowe w obszarach: inżynierii oprogramowania, sztucznej inteligencji i uczenia maszynowego, analizy danych, interakcji człowieka z technologią i innych.

    Digitalizacja obrazów w Turwi za pomocą aparatu Phase One
    Digitalizacja obrazów w Turwi za pomocą aparatu Phase One / źródło: OPI PIB

    Sylwia Banaszkiewicz opi

    Autorka: Sylwia Banaszkiewicz – Specjalistka od public relations, redaktorka, anglistka. W Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym prowadzi promocję programów i projektów finansowanych z Funduszy Europejskich. Wcześniej, przez wiele lat w administracji publicznej, w tym 14 lat w PARP, zajmowała się szeroko rozumianą promocją polskiej przedsiębiorczości za granicą, marketingiem narodowym oraz wdrażaniem Funduszy Norweskich dla przedsiębiorców.

  • VR w edukacji globalnej

    VR w edukacji globalnej

    Wirtualna rzeczywistość (VR, z ang. virtual reality) jest już z nami od jakiegoś czasu, ale wciąż się rozwija i zaskakuje nas możliwościami, jakie daje. Odpowiada na szerokie potrzeby ludzi i chyłkiem wkrada się w działania edukacyjne. Spełnia się przy tym jako narzędzie, które „urzeczywistnia” nam to, co do niedawna było pozostawiane naszej fantazji.

    VR w edukacji

    VR zdaje się odpowiadać na wiele potrzeb, które wraz z rozwojem technologii, „wygenerował” albo unaocznił nam XXI wiek. Pozwala na obejrzenie z bliska procesów, wydarzeń, przedmiotów w bezpieczny sposób, ale sprytnie utrzymuje przy tym uwagę użytkowników, a nawet nią kieruje. Pandemia COVID-19 pokazała, jak ważne stają się możliwości kształcenia się online, gdzie VR również może służyć pomocą. Metaanaliza z 2017 roku pokazała, że VR jako narzędzie edukacyjne jest przede wszystkim użytkowany w medycynie i naukach pokrewnych, w głównej mierze na uczelniach wyższych (Kavanagh, S., Luxton-Reilly, A., Wuensche, B., & Plimmer, B. (2017). A systematic review of virtual reality in education. Themes in Science and Technology Education, 10(2), 85-119.). Okazuje się, że VR może podwyższać motywacje studentów uczelni medycznych do nauki przeprowadzania zabiegów medycznych (Sattar, M., Palaniappan, S., Lokman, A., Shah, N., Khalid, U., & Hasan, R. (2020). Motivating medical students using virtual reality based education. International Journal of Emerging Technologies in Learning (iJET), 15(2), 160-174.). VR uczy również umiejętności miękkich, np. poprzez trenowanie umiejętności scenicznych (McGovern, E., Moreira, G., & Luna-Nevarez, C. (2020). An application of virtual reality in education: Can this technology enhance the quality of students’ learning experience?. Journal of education for business, 95(7), 490-496.). Projektanci i inżynierowie obu płci mogą z kolei weryfikować swoje projekty i pracować nad nimi w VR, redukując dzięki temu koszty wdrażania danego projektu, jak i czas jemu poświęcony (Halabi, O. (2020). Immersive virtual reality to enforce teaching in engineering education. Multimedia Tools and Applications, 79(3-4), 2987-3004.).

    „VR potrafi również zadziałać „głębiej”, wywołując emocje. Dostajemy tym samym nie tylko wiedzę, ale też potencjalnie głębokie, emocjonalne doświadczenie.”

    To (i wiele więcej) oferuje nam VR na poziomie poznawczym. Wirtualna rzeczywistość „zachęca” nas do współpracy, motywując nas do nauki czy nawet ekscytując nas prawie niewyczerpalnymi możliwościami, jakie daje. Jednak VR potrafi również zadziałać „głębiej”, wywołując emocje. Dostajemy tym samym nie tylko wiedzę, ale też potencjalnie głębokie, emocjonalne doświadczenie. Ta kolejna „umiejętność” wirtualnej rzeczywistości już jest wykorzystywana przy edukacji globalnej.

    Czym jest edukacja globalna?

    Edukacja globalna – w dużym skrócie – polega na zdobywaniu wiedzy dotyczącej funkcjonowania świata jako ogromnej sieci naczyń połączonych. Nasze działania na małą skalę, lokalnie, mają wpływ na życie innych osób i vice versa, działanie innych osób wpływa na to, jak my funkcjonujemy. Wyzwanie przed jakim stoi edukacja globalna jest związana z jej efektywnością. Chodzi w niej bowiem nie tylko o przekazywanie wiedzy, ale również o aktywne podejście do otrzymywanych informacji, a więc o zadawanie pytań, myślenie krytyczne i kwestionowanie status quo obecnego systemu. Wobec tego, edukacja globalna musi wykonać „głębszą” pracę, niż poznawcze uczenie się. W dzisiejszych czasach, kiedy edukacja jest hybrydą XIX-wiecznego systemu nauczania i nowych, współczesnych metod angażowania uczniów, a świat wokół jest pełen skomplikowanych pytań bez odpowiedzi, potrzeba wykorzystywania nowych narzędzi do działań edukacyjnych rośnie. Tu z nową nadzieją pojawia się wirtualna rzeczywistość.

    VR w edukacji globalnej

    VR już teraz jest aplikowany w przybliżaniu tematyki związanej z edukacją globalną, a aplikacje z użyciem wirtualnej rzeczywistości zaczynają zdobywać nagrody na festiwalach filmowych. Na przykład, aplikacja Greenland melting pokazuje topnienie lodowców na Grenlandii. Coś, co do tej pory było pozostawione ludzkiej wyobraźni, teraz można „zobaczyć” z bliska i zrozumieć skalę problemu. W tej aplikacji towarzyszymy załodze NASA w pobycie na Grenlandii i wraz z nimi przyglądamy się, jak nikną kolejne lodowce. Autorzy aplikacji kontrastują ze sobą grenlandzki pejzaż z poprzedniego wieku z tym bardziej aktualnym. Ta prawie że „namacalna” różnica może zrobić ogromne wrażenie i dzięki temu pozostać zapamiętana.

    Autorzy niektórych aplikacji decydują się na jeszcze mocniejsze doznania. Organizacja Narodów Zjednoczonych poprzez VR próbuje uzmysłowić odbiorcom, jak mogą wyglądać realia kobiet, które wraz z dziećmi musiały uciekać ze swojego kraju z powodu wojny.

    Etyka

    Pokazywanie aplikacji VR by uczyć się chemii czy medycyny na pewno nie wzbudza takich emocji, jak pokazywanie obrazów z uchodźcami i uchodźczyniami czy ze zmianami klimatu. Przez ostatnie lata kwestie poruszane przez edukację globalną były często wykorzystywane przez polityków, więc czają się za nimi niezwykle silne emocje. Jednak VR dodaje do tego jeszcze jeden aspekt– etykę. Chociaż VR już został okrzyknięty „maszyną do empatii” (Bujić, M., Salminen, M., Macey, J., & Hamari, J. (2020). “Empathy machine”: how virtual reality affects human rights attitudes. Internet Research, 30(5), 1407-1425.), przedstawianie czyjegoś cierpienia jako obiektu doświadczenia użytkowników danej aplikacji nasuwa wątpliwości. Może sprawić wrażenie wizyty w muzeum, gdzie staramy się doświadczać innego, dla nas ekscytującego, życia. Możemy spróbować poczuć, co to znaczy uciekać przed wojną, płynąć lichą łodzią przez Morze Śródziemne czy żyć w świecie post-apokalipsy. Zaraz potem wracamy do naszego bezpiecznego świata. Przeżycie, które miało zachęcić do refleksji, jest teraz rozrywką z przyciskiem „zakończ”. Takie doświadczenie może spłycać kontekst społeczno-polityczny bohaterów i bohaterek aplikacji. W dodatku, jak zauważa Profesor Paul Bloom, VR ogranicza kontekst. Życie osób, które przechodzą przez trudne i odległe nam doświadczenia jest o wiele bardziej skomplikowane i VR prawdopodobnie nie będzie w stanie w pełni odzwierciedlić ich sytuacji. Czy należy zatem w ogóle używać VR do edukacji, a szczególnie edukacji globalnej?

    Home after War

    VR z pewnością wzbudza sensację. Moim zdaniem warto sięgnąć po niego, i z wrażliwością oraz refleksją używać go w edukacji. Chociaż za pewne nie ominę wszystkich przeszkód i wątpliwości związanych z użyciem VR w edukacji, w moim własnym badaniu planuję użyć aplikacji Home after War. W tym doświadczeniu nie widzimy najbardziej traumatycznych wydarzeń głównego bohatera. Jego emocje i doznania nie stają się pożywką dla naszych przeżyć. Zamiast oglądać „film wojenny” w 3D, widzimy dom, który przetrwał wojnę. Jest to autentyczny budynek, odtworzony w VR za pomocą fotometrii. Przewodnikiem i narratorem naszego spaceru po własnym domu jest Ahmaied Hamad Khalaf, który wrócił „na swoje” po odejściu Państwa Islamskiego z terenów miasta Faludża. Ahmaied opowiada nam również o historii swojej i jego rodziny. To trudna historia, opowiedziana za pośrednictwem nie tylko VR, ale też „zwyczajnego” budynku mieszkalnego. Czasem takie nieco zawoalowane opowieści, potrafią przekazać więcej informacji i ładunku emocjonalnego, niż dosadna bezpośredniość.

    „VR z pewnością wzbudza sensację. Moim zdaniem warto sięgnąć po niego, i z wrażliwością oraz refleksją używać go w edukacji.”

    Czy jednak VR pomoże mi osiągnąć mój cel? Czy uda mi się wzbudzić empatię do Ahmaieda, i na tyle rozwinąć wątek, by poruszyć tematy globalne? Czy aplikacja pomoże uczestnikom badania lepiej zrozumieć sytuację „innego” i bardziej się w nią wczuć? W kontrze do tego o czym napisał Prof. Bloom, nauka pokazuje, że VR rzeczywiście może działać na nasze emocje psychospołeczne. Jedne badania wskazują, że VR raczej pomoże nam zrozumieć czyjąś sytuację, niż ją poczuć (Ventura, S., Badenes-Ribera, L., Herrero, R., Cebolla, A., Galiana, L., & Baños, R. (2020). Virtual reality as a medium to elicit empathy: A meta-analysis. Cyberpsychology, Behavior, and Social Networking, 23(10), 667-676.). To znaczyłoby, że zanurzenie się w czyjąś historię jest przez użytkowników raczej odbierane jako czyjeś – a nie własne – doświadczenie. Z drugiej strony, inne badania sugerują coś zupełnie odwrotnego, np. w eksperymencie wcielania się w osobę w kryzysie bezdomności, badani odczuwali więcej empatii i stresu po doświadczeniu w VR, niż po wyobrażeniu sobie takiego doświadczenia. Również długofalowe efekty badania pokazywały, że osoby po przejściu przez doświadczenie w VR dłużej i chętniej deklarowały poparcie i zrozumienie dla bezdomnych.

    Zachęcam Państwa do obserwowania tego, co dzieje się w świecie edukacyjnego VR-u. Myślę, że warto go używać, chociażby po to, żeby uczyć się dbania o jedyną nam dostępną, jak najbardziej realną planetę. W przeciwnym razie, zostanie nam oglądanie kwiatków już tylko w VR. Również serdecznie zapraszam wszystkie osoby potencjalnie zainteresowane projektem z użyciem aplikacji Home after War do kontaktu.


    Aplikacje VR w tematyce edukacji globalnej, które warto zobaczyć:


    Gabriela Górska

    Autorka: Gabriela Górska – badaczka w Laboratorium Interaktywnych Technologii w OPI PIB, doktorantka w Instytucie Studiów Społecznych na Uniwersytecie Warszawskim. W swoich badaniach skupia się głównie na psychologii społecznej. Bada możliwości polepszenia jakości relacji międzyludzkich i międzygrupowych, również przy użyciu stosunkowo nowych metod, takich jak VR oraz medytacja uważności.

  • Wirtualna rzeczywistość może być narzędziem do zdalnych spotkań?

    Wirtualna rzeczywistość może być narzędziem do zdalnych spotkań?

    W 2020 roku życie biurowe wielu osób gwałtownie się zmieniło. Dużo ludzi zaczęło pracować z domu, a do spotkań ze współpracownikami korzystali z połączeń wideo na komputerze. Taki model pracy okazał się mieć dużo zalet i obecnie wiele osób chętnie wybiera taki sposób wykonywania pracy. Jednym z ważnych aspektów pracy zdalnej, obok jej wpływu na psychiczną i fizyczną kondycję pracowników, czy też jakość wykonywanej przez nich pracy, jest to, że w tym trybie pracownik wszystkie kontakty zawodowe realizuje za pośrednictwem rozwiązań technologicznych – telefonu, maila, komunikatorów wideo czy komunikatorów tekstowych. Taki sposób kontaktu jest szybki i zazwyczaj skuteczny, jednak w porównaniu do spotkań na żywo ma też pewne negatywne strony, które są silniej odczuwane przez osoby potrzebujące społecznego kontaktu. Długa praca zdalna, z powodu ograniczonych kontaktów „na żywo” może prowadzić do spadku zaangażowania, ograniczenia intensywności współpracy, pojawia się też zjawisko nazywane „zmęczeniem Zoomem” (ang. Zoom Fatigue). Zatem pomimo szeregu zalet pracy z domu, w dłuższej perspektywie może ona osłabiać więzi pomiędzy członkami zespołu, bo relacje społeczne utrzymywane poprzez komunikatory wideo są mniej intensywne, mniej angażujące i nie oddają pełni doświadczeń spotkania z innymi osobami. 

    Dlatego branża technologiczna poszukuje rozwiązań, które umożliwiają nowe formy kooperacji w przestrzeniach wirtualnych, w tym w rzeczywistości wirtualnej (VR). Przykładami platform do spotkań w VR są Horizon Workrooms, Microsoft Mesh i Spatial, które mają przybliżyć doświadczenia spotkań zdalnych do tych odbywających się w rzeczywistości. Dzięki temu, że uczestnicy po założeniu gogli mają wrażenie fizycznego przeniesienia się do innej przestrzeni, technologia VR pozwala symulować jednoczesne przebywanie w tym samym miejscu z innymi osobami. Zazwyczaj uczestnicy takiego  spotkania mają wygląd rysunkowych postaci, tzw. awatarów, których wygląd i ubiór można swobodnie kształtować. Są to ciekawe rozwiązania, które mogą być atrakcyjne zarówno dla osób pracujących z domu, jak i dla pracowników biur korzystających z wideokonferencji do spotkań z osobami w oddalonych lokalizacjach. 

    Aby lepiej poznać potencjał tych rozwiązań, zrealizowaliśmy w Laboratorium Interaktywnych Technologii OPI PIB badanie oceniające potencjał wirtualnej rzeczywistości (VR) jako medium wzbogacającego możliwości zdalnej komunikacji w środowisku pracy. Przez pięć tygodni jeden z zespołów OPI, liczący 18 osób, używał platformy Horizon Workrooms oraz gogli VR jako domyślnej technologii do komunikacji wewnątrz zespołu. Na podstawie danych (zbieranych przed tym badaniem, w jego trakcie i po zakończeniu) zebraliśmy szereg ciekawych obserwacji. 

    Wirtualna rzeczywistość jest jeszcze na wczesnym etapie rozwoju, jednak już teraz widać obszary, w których ma duży potencjał. Pomimo niedoskonałości tej młodej technologii, większość uczestników spotkań uznała, że spotkania prowadzone w VR spełniły stawiane przed nimi cele. Odkryliśmy, że technologia VR ma szczególnie duży potencjał w przypadku spotkań wymagających kreatywności, kiedy istotne jest poczucie przebywania z innymi osobami w tej samej przestrzeni, dobrze się też sprawdza w przypadku prezentacji lub wykładów oraz w swobodnych dyskusjach. Uczestnicy mówili, że w porównaniu do połączeń wideo, byli bardziej skupieni na treści spotkań i były one czymś zbliżonym do wspólnie przeżywanego doświadczenia, a mniej czymś obserwowanym – jak to ma miejsce w przypadku wideokonferencji. Spotkania w VR dawały możliwość komunikacji nie tylko za pomocą słów, ale też gestykulacji i ruchów całego ciała. Istotne znaczenie miał też dobrze odwzorowany dźwięk przestrzenny, który prawidłowo wskazywał odległość od mówiącej osoby i jej położenie, co znacząco zwiększało wrażenie realności. Jeden z uczestników tak opowiedział o swoich odczuciach:
    “Uważam, że wirtualna rzeczywistość jest lepsza do spotkań, w których istotne jest głównie to, żeby przebywać razem. W zoomie nie mam wrażenia, że jestem z wami WSZYSTKIMI NA RAZ, a w VR mam takie wrażenie. Chociaż mam świadomość, że nie widzę Was, tylko awatary, to i tak mam wrażenie, że lepiej odczuwam wasze intencje.”

    Kolejną zaletą spotkań w VR, na którą zwrócili uwagę uczestnicy badania jest to, że łatwiej było im się skupić na treści spotkania. W przypadku połączeń wideo istnieją rzeczy, które mogą rozproszyć – przedmioty na biurku, powiadomienia z innych aplikacji, dźwięki z otoczenia, smartfon, itd. W trakcie przebywania w VR nie ma do tego dostępu, cała uwaga jest skoncentrowana na spotkaniu. Przez to, że można obserwować awatary wszystkich uczestników, to można po ich postawie, kierunku patrzenia i gestach, łatwo odczytać kto faktycznie uczestniczy w spotkaniu, a kto zajmuje się innymi sprawami. 

    Ciekawą obserwacją jest to, jak uczestnicy traktowali swoje awatary. Zdecydowana większość zaprojektowała je tak, żeby przypominały z wyglądu ich samych w rzeczywistości, i ten raz ustalony wygląd nie był zmieniany w trakcie całego badania. Raz stworzony awatar stawiał się integralną częścią danej osoby i uczestnicy wręcz wymagali wzajemnie od siebie, aby nie zmieniać ich wyglądu. Natomiast wielu uczestników zmieniało w trakcie trwania projektu ubrania swoich awatarów, tak aby bardziej przypominało to doświadczenie prawdziwych spotkań w rzeczywistości. 

    Uczestnicy badania zwracali uwagę na to, że łatwiej jest im się włączyć do dyskusji w spotkaniach w VR niż w trakcie połączeń wideo. Składa się na to kilka przyczyn. Po pierwsze, w VR dźwięk jest odwzorowany bardzo realistycznie – łatwo jest ocenić kierunek i odległość od rozmówcy, można też mówić jednocześnie – np. powiedzieć coś cicho do osoby obok, nie zakłócając wypowiedzi innej osoby. Wideokomunikatory zazwyczaj mają takie ograniczenie, że włączenie się do rozmowy przerywa wypowiedź innej osoby, co utrudnia naturalną wymianę zdań. W VR nie ma tego ograniczenia i jednocześnie prowadzone rozmowy bardzo realistycznie przypominają to, co byłoby słychać, gdyby konwersacja odbywała się w prawdziwej sali konferencyjnej. Ponadto, dla części osób, które obawiają się wypowiadać na forum, bo nie lubią skupiać na sobie uwagi, fakt że spotkania w VR wykorzystują awatary, daje dodatkowe poczucie bezpieczeństwa. Awatar odwzorowuje gesty i ruchy ciała, ale też pozwala się trochę schować, bo prawdziwy ubiór i wygląd osoby jest niewidoczny. Wreszcie, ważnym aspektem jest to, że wszystkich uczestników spotkania widać jednocześnie i można zasygnalizować chęć zabrania głosu gestem, co też ułatwia włączenie się do rozmowy. 

    To doświadczenie pokazało też słabości technologii VR na jej obecnym etapie rozwoju. Aktualnie dostępne gogle VR są dla wielu osób zbyt ciężkie, niewygodne w noszeniu, a po dłuższym używaniu powodujące zmęczenie, ból głowy i oczu. Dopiero po znacznym poprawieniu komfortu korzystania z tych urządzeń, można się spodziewać szerszego ich stosowania do realizacji zdalnych spotkań. Także oprogramowanie wymaga jeszcze dopracowania, aby poprawić realistyczność odwzorowania ruchów awatarów, reprezentujących uczestników spotkania. Szczególnie istotne jest poprawienie mimiki awatarów oraz zwiększenie naturalności ruchów. Ponadto platforma VR przeznaczona do wspólnej pracy powinna umożliwiać wygodną, współdzieloną edycję dokumentów tekstowych, prezentacji, tworzenia notatek oraz pracy z innym oprogramowaniem, jak klient email, kalendarz, a tego jeszcze brakuje. Pojawiły się też trudności praktyczne – mając założone gogle trudno jest się napić herbaty, zamknąć lub otworzyć okno w pokoju, czy zareagować na coś w realnym otoczeniu. Innym ograniczeniem jest to, że bateria gogli wystarcza tylko na około 60 minut, co ogranicza maksymalny czas spotkania.

    Pomimo tych niedogodności widzimy, że przestrzeń VR może być ekscytującym i jednoczącym doświadczeniem dla zdalnych zespołów. Spotkania w VR mogą być dobrym uzupełnieniem powszechnie stosowanych wideo-komunikatorów, szczególnie w przypadku spotkań w większym gronie, gdy nie trzeba pracować na wspólnych dokumentach, lecz głównym celem jest dyskusja lub prezentacja informacji. 

  • Już jutro Dzień Kobiet. Jak wygląda ich pozycja w technonauce?

    Już jutro Dzień Kobiet. Jak wygląda ich pozycja w technonauce?

    Z okazji Międzynarodowego Dnia Kobiet warto przyjrzeć się ich sytuacji w nauce. Nadal panują stereotypy, zgodnie z którymi kobiety są bardziej związane z troską o otoczenie, a mężczyźni są bardziej skłonni do pracy technicznej. Dlatego też, w dziedzinie naukowej zajmującej się edukacją, aż 70% badaczy to kobiety, podczas gdy w informatyce aż 80% badaczy to mężczyźni. W dalszym ciągu kobiety są rzadko reprezentowane w dziedzinie technonauki, która łączy badania i technologie, teoretyczne rozważania i praktyczne zastosowania prac badawczych. Jest to niekorzystne dla społeczeństwa, ponieważ różnorodne środowiska prowadzą do lepszych innowacji. Socjolożka z Ośrodka Przetwarzania Informacji, dr Anna Knapińska, dokładnie zbadała to zjawisko, a efektem jej analiz jest książka „Kobiety w technonauce. Biografie zawodowe profesorek”, którą można za darmo pobrać ze strony internetowej OPI.

    Książka „Kobiety w technonauce. Biografie zawodowe profesorek” jest ciekawą pozycją, która prezentuje ważny, aktualny temat. Autorka zauważyła, że niedoreprezentowanie kobiet wynika z  zasad panujących w technonauce. Starała się ona zrekonstruować świat profesorek, z którymi rozmawiała oraz zrozumieć, jakie znaczenia nadają one doświadczeniom, zwrotom i zmianom w  przebiegu własnej kariery. Przedstawiła świat społeczny kobiet w polu technonauki za pomocą metody biograficznej, przeprowadzając wywiady z dwunastoma przedstawicielkami dyscyplin reprezentujących nauki medyczne, przyrodnicze, rolnicze i techniczne. Badane zwracały przede wszystkim uwagę na przejście od spokoju i stabilności miejsc pracy do rywalizacji i zatrudniania kontraktowego. W oczach przedstawicielek starszej generacji jest to przemiana negatywna, prowadząca do wyścigu szczurów, ale młodsze profesorki akceptują regułę „publikuj albo giń” i  uznają, że tak wyglądają międzynarodowe standardy. Naukowczynie zauważały też, że mniejsza stabilność zatrudnienia w nowej nauce sprawia, że kobietom, które są wciąż bardziej od mężczyzn obciążone obowiązkami rodzinnymi, może być trudniej utrzymać się w pracy.

    „Chłodny klimat” technonauki i rola „niewidzialnych asystentek”

    Przewagę mężczyzn wśród nauczycieli akademickich i badaczy widać wraz z kolejnymi stopniami i tytułami naukowymi. Dla ogółu dziedzin sytuacja w Polsce przedstawia się następująco – przewaga liczebna kobiet na studiach, stan równowagi na etapie doktoratu, w miarę korzystne proporcje wśród samodzielnych pracowników z habilitacją (43 proc. kobiet) i duży spadek wśród profesorów (28 proc. kobiet). Ale kiedy spojrzymy tylko na nauki ścisłe i techniczne, to dominacja mężczyzn jest jeszcze bardziej widoczna – kobiety stanowią 40 proc. wśród doktorów, 33 proc. wśród doktorów habilitowanych i zaledwie 19 proc. wśród profesorów. 

    Rozmówczynie zwróciły uwagę na „chłodny klimat” panujący w technonauce. Dr Anna Knapińska, socjolożka, adiunktka w Laboratorium Baz Danych i Systemów Analityki Biznesowej OPI mówi:

    „W moich badaniach biograficznych naukowczynie, które symbolicznie, osiągając profesurę, doszły do końca naukowej drogi, zwracały na to uwagę. Mówiły o  uprzywilejowaniu mężczyzn, o tym, że  czasem czuły się jak te niewidzialne pomocnice, które wykonują żmudną robotę, a potem śmietankę spijają ich koledzy. Często kobietom wciąż są przydzielane są role „niewidzialnych asystentek”, ponieważ pozycje strategiczne, zapewniające władzę, zajmowane są przez mężczyzn.”

    dr Anna Knapińska

    „Macierzyński mur” na drodze do kariery naukowej

    Zdaniem naukowczyń, z którymi rozmawiała autorka książki, barierą dostępu do pola technonauki jest również macierzyństwo. Stanowi to potwierdzenie istnienia tzw. „macierzyńskiego muru”. Od naukowców wciąż oczekuje się, że będą gotowi w każdym momencie poświęcić się pracy, nie zważając na sytuację osobistą. Macierzyństwo jednak to wyklucza. Co więcej, dostępność pola technonauki dla młodych kobiet staje się ograniczona nawet nie z powodu samego faktu bycia matką, ale wskutek potencjalnego macierzyństwa. We współczesnej nauce, opartej na zasadach nieprzerwanej rywalizacji o autorytet naukowy, szczególnego znaczenia nabierają przestoje publikacyjne, wynikające z naturalnej pauzy w pracy po urodzeniu dziecka. Poza tym kobiety częściej niż mężczyźni dokonują wyborów zawodowych, uwzględniając kontekst rodzinny – ciągle ciężar zajmowania się rodziną i opieki nad dziećmi spoczywa przede wszystkim na nich. Szczególnym utrudnieniem okazuje się macierzyństwo podczas wyjazdów zagranicznych. Matki rzadziej niż ojcowie zostawiają dzieci, by wyjechać na zagraniczny staż, a jeśli to robią, przeżywają trudne emocje. We współczesnej nauce mobilność międzynarodowa jest niezbędnym warunkiem opartej na dążeniu do doskonałości działalności badawczej, szczególnie w polu technonauki. Gdy kobiety rezygnują z wyjazdów zagranicznych, ich szanse na powiększanie autorytetu naukowego zmniejszają się, a to zwiększa ryzyko powstania „trajektorii lotu niskiego”.

    Silna tożsamość naukowa i „syndrom królowej pszczół”

    Tak zwany syndrom królowej pszczół (queen bee syndrome) polega na tym, że kobiety odnoszące sukces w obszarze zdominowanym przez mężczyzn, dystansują się od innych kobiet. Brak wsparcia od innych kobiet i negatywne reakcje z ich strony wspominane są przez naukowczynie, z którymi rozmawiała dr Knapińska, jako wyjątkowo nieprzyjemne. Jednocześnie widać jednak ich akceptację dla obowiązującej w nauce definicji sukcesu, a także obowiązujących norm i wartości. Popierają koncepcję nauki, w której sukces odnieść mogą osoby ambitne i silne psychicznie, a jednocześnie przypisują kobietom nadmierną emocjonalność i zbyt łatwe poddawanie się. Akceptacja „męskocentrycznego” porządku naukowego przyczynia się do konserwowania płciowej hierarchii w  nauce i technonauce.

    Co pomaga kobietom realizować się na polu technonauki?

    Badania pokazują, że dla kobiet dobra atmosfera pracy jest czynnikiem skłaniającym do pozostania w nauce. Drugim istotnym ułatwieniem kariery, również wchodzącym w skład kapitału społecznego jest networking zawodowy. Kontakty z naukowcami, z którymi naukowczynie zetknęły się w  zespołach badawczych i poza nimi, miały znaczący wpływ na rozwój ich karier i zyskiwanie rozpoznawalności. Idealna sytuacja występuje, gdy konkurowanie naukowe nie wyklucza wzajemnego wspierania się partnerów interakcji. Co więcej, pomoc uzyskiwana na wcześniejszych etapach kariery sprawia, że profesorki starają się podobnie postępować wobec młodszych pracowników. W ten sposób odbywa się transmisja norm obowiązujących w polu technonauki.

    Pomoc rodziny kluczowym czynnikiem sukcesu

    Wielkie znaczenie dla budowania autorytetu naukowego ma wsparcie najbliższych, zwłaszcza gdy weźmie się pod uwagę specyfikę dziedzin technonaukowych, w których mnóstwo czasu spędza się w laboratorium. Jest to zgodne z wynikami badań, pokazującymi, że w przypadku kobiet pomoc rodziny jest kluczowym czynnikiem sukcesu. Dla kobiet mających dorosłe dzieci to one są podporą. W okresie wczesnego macierzyństwa podstawową pomoc zapewniają rodzice. Mężowie są istotni głównie ze względu na wspieranie ambicji naukowych żon, co wcale nie jest regułą, bo zdarza się, że ze względu na siłę oczekiwań społecznych wobec ról płciowych mężczyźni mają trudności z  pogodzeniem się z karierą swoich partnerek, a z kolei kobiety uznają kariery mężów za pierwszoplanowe i ważniejsze dla rodziny. Badania potwierdzają, że wsparcie partnerów życiowych jest czynnikiem wpływającym mocniej na rozwój karier kobiet niż posiadanie dzieci. Wreszcie, ułatwieniem na naukowej drodze są indywidualne dyspozycje psychiczne, związane z  nastawieniem na osiągnięcia. Kluczowe jest wytrwałe dążenie do osiągnięcia postawionych celów, zwłaszcza w momentach kryzysowych oraz odwaga sprzeciwienia się autorytetom.

    Książka dr Anny Knapińskiej „Kobiety w technonauce. Biografie zawodowe profesorek” dostępna jest za darmo na stronie internetowej OPI. Link do publikacji: https://opi.org.pl/wp-content/uploads/2023/01/Kobiety-w-technonauce.-Biografie-zawodowe-profesorek-e-book.pdf

  • Co wpływa na innowacyjność w Polsce?

    Co wpływa na innowacyjność w Polsce?

    Ośrodek Przetwarzania Informacji (OPI) opublikował analizę dotyczącą rozwoju innowacyjności w Polsce. Publikacja instytutu ma na celu wstępną diagnozę potrzeb i wyzwań związanych z tym istotnym zagadnieniem. Analizę przygotowano na bazie konsultacji z interesariuszami, a także dokonując przeglądu istniejących opracowań na dany temat. W publikacji „Narodowy System Innowacyjności: szanse i wyzwania” wskazano główne bariery i rekomendacje narzędzi wspierających rozwój innowacji w Polsce. Stanowi ona pierwszy, wstępny etap prac zmierzających do uszczegółowienia konkretnych działań rozwijających innowacyjność. Analiza OPI dostępna jest na portalu RAD-on.

    Wzrasta innowacyjność w Polsce

    – Efektywna współpraca przedsiębiorstw, instytucji naukowych oraz agencji rządowych jest kluczem do rozwoju innowacji w Polsce. Podmioty te tworzą fundamenty systemu innowacyjności. Rolą państwa jest wspieranie tych podmiotów oraz dbanie o właściwe relacje między nimi. Sposób rozwoju systemu określają narzędzia i mechanizmy polityki innowacyjnej: finansowe, organizacyjno-prawne i informatyczne – mówi Wojciech Murdzek, Sekretarz Stanu, Pełnomocnik Rządu do spraw reformy funkcjonowania instytutów badawczych w Ministerstwie Edukacji i Nauki. – Wnioski zawarte w analizie OPI, która powstała na zlecenie Ministerstwa Edukacji i Nauki, są bardzo cenne i pomogą nam opracować odpowiednie działania wspierające rozwój innowacyjności w naszym kraju – dodaje wiceminister.

    Według Europejskiego Rankingu Innowacyjności 2022, Polska pozostaje w grupie „wschodzących innowatorów”, osiągając poziom 60,5 proc. średniej Unii Europejskiej. Z kolei w ostatniej edycji Globalnego Indeksu Innowacyjności Polska zajęła 38. miejsce – z pośród 132 gospodarek na świecie. O ile w ostatnich latach Polska powoli awansowała w tych rankingach, to jednak tempo wzrostu nie jest zadowalające. Konieczne są intensywne działania kreujące rozwój innowacyjności, ponieważ to właśnie ona jest jednym z głównych czynników, który decyduje o poziomie rozwoju społeczno-gospodarczego państw.

    7 głównych barier rozwoju innowacyjności

    W trakcie prac nad dokumentem „Narodowy System Innowacyjności: szanse i wyzwania”, eksperci OPI przeprowadzili szereg konsultacji z interesariuszami. Wzięli w nich udział: Centrum Łukasiewicz, Polska Agencja Rozwoju Przedsiębiorczości, Urząd Patentowy Rzeczypospolitej Polskiej, Porozumienie Akademickich Centrów Transferu Technologii, Związek Rzemiosła Polskiego, Fundacja Koalicji na rzecz Polskich Innowacji, Szkoła Główna Handlowa w Warszawie, Politechnika Gdańska, Uniwersytet Medyczny w Łodzi, Uniwersytet Ekonomiczny we Wrocławiu, Akademia Leona Koźmińskiego, Akademia Ignatianum w Krakowie oraz Instytut Chemii Fizycznej Polskiej Akademii Nauk. Efektem tych konsultacji było wyodrębnienie siedmiu barier rozwoju innowacyjności. 

    – Bez wątpienia bariery finansowe są jednym z głównych czynników ograniczających rozwój innowacyjności. Polegają one na braku funduszy na pokrycie kosztownej działalności innowacyjnej, co stanowi wyzwanie szczególnie dla małych i średnich przedsiębiorstw. Ta grupa nadal boryka się z największym problemem pozyskiwania finansowania zewnętrznego, np. w postaci dotacji lub kredytów, które pomogłoby rozwijać działalność. Jednak to nie jedyne bariery, jakie wskazali uczestnicy konsultacji. Innowacyjność ograniczają także czynniki związane z nadmierną biurokracją i niedostosowaniem rozwiązań prawnych do specyfiki prowadzenia działalności – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji. – Kolejne bariery dotyczą wyzwań współpracy między instytucjami, zwłaszcza między firmami a instytucjami naukowymi. W opinii interesariuszy polegały one między innymi na nieefektywnej wymianie informacji, wynikającej z różnic struktur instytucjonalnych oraz braku zachęt dla naukowców do prowadzenia projektów wdrożeniowych – dodaje dyrektor OPI.

    Czwartą barierę stanowiła dostępność danych i narzędzi informatycznych. Problemy w tym obszarze dotyczyły fragmentaryzacji danych o innowacyjności, braku narzędzi informatycznych do zarządzania własnością intelektualną, śledzenia efektów trwałości projektów, kosztów wykorzystywania narzędzi informatycznych, a także braku narzędzi bezpiecznej komunikacji między biznesem a nauką. Pozostałe trzy bariery dotyczyły rozproszenia wiedzy i informacji na temat możliwych form wsparcia, edukacji wspierającej innowacyjność, a także postaw społeczno-kulturowych, takich jak brak zaufania i strach przed podjęciem ryzyka.

    Jak wspierać innowacyjność?

    W odpowiedzi na wymienione bariery, interesariusze wskazali narzędzia, które pozwolą wzmocnić narodowy system innowacyjności. Wśród nich wskazano m.in. inicjatywy umożliwiające zarządzanie działalnością innowacyjną, śledzenie ciągłości działań oraz zależności między projektami, interesariuszami oraz efektami działalności innowacyjnej. Mają to być narzędzia prawne oraz informatyczne wspierające zarządzanie danymi o własności intelektualnej, a także ułatwiające wymianę danych pomiędzy różnymi systemami na potrzeby własne oraz sprawozdawcze. Zdaniem interesariuszy warto także wdrażać systemy ukierunkowane na wsparcie przedsiębiorstw w dotarciu do informacji o działalności badawczo-rozwojowej podmiotów szkolnictwa wyższego i nauki, a także rozwijać narzędzia służące do analizy potencjału wynalazku. Skuteczne w niwelowaniu barier mogłoby być także stworzenie punktu kontaktowego dla wszystkich podmiotów ekosystemu innowacji, co zdaniem osób biorących udział w konsultacjach, przyczyni się do wzrostu świadomości w zakresie świadczonych usług przez poszczególne instytucje oraz ułatwi budowanie lepszych relacji pomiędzy podmiotami narodowego systemu innowacyjności.

    Publikacja „Narodowy System Innowacyjności: szanse i wyzwania” dostępna jest na portalu RAD-on:
    https://radon.nauka.gov.pl/analizy/narodowy-system-innowacyjnosci

  • Polska na 5. miejscu w rankingu UE27 dotyczącym sztucznej inteligencji

    Polska na 5. miejscu w rankingu UE27 dotyczącym sztucznej inteligencji

    Rozwój sztucznej inteligencji (SI) przyspiesza z roku na rok. Dotyczy on nie tylko biznesu, ale także obszaru nauki. Właśnie dlatego Ośrodek Przetwarzania Informacji (OPI) przygotował nowy raport, dotyczący osiągnięć publikacyjnych w zakresie sztucznej inteligencji. Tym razem eksperci instytutu skupili się na publikacjach naukowych w dziedzinie nauk ścisłych i technicznych przygotowanych w latach 2010–2021. Badacze skoncentrowali się zatem na obszarach, które aktywnie rozwijają sztuczną inteligencję, jak również stosują ją do rozwiązywania określonych problemów. Zawarte w raporcie wyniki badań pokazują, że w danym okresie w naukach ścisłych i technicznych opublikowano na całym świecie aż 949 tys. publikacji na temat SI, z czego 13 959 zostało przygotowanych lub powstało przy współudziale naukowców z polskich ośrodków. Tym samym Polska zajęła wysokie, piąte miejsce pod względem liczby publikacji spośród 27 państw UE.

    SI w perspektywie światowej, Unii Europejskiej i polskiej

    „Ośrodek Przetwarzania Informacji już od dawna aktywnie rozwija sztuczną inteligencję. Przykładowo, w 2022 roku rozpoczęliśmy prace nad narzędziem wykorzystującym SI do identyfikacji podwójnej jakości produktów przy wykorzystaniu uczenia maszynowego. Dzięki temu, łatwiej będzie na rynku zidentyfikować nieuczciwego producenta, który w różnych krajach oferuje te same towary różniące się jakością. Opracowaliśmy także dla Urzędu Ochrony Konkurencji i Konsumentów (UOKiK) system IT, który pomaga wykryć klauzule niedozwolone w umowach. Wspieramy również radiologów w wykrywaniu raka prostaty, dzięki rozwijaniu platformy eRADS, a także tworzymy systemy wykrywające symptomy depresji w mediach społecznościowych. Wszystkie powyższe narzędzia oparte są na algorytmach sztucznej inteligencji. Działania te wpisują się w naszą strategię, której celem jest rozwijanie technologii informatycznych ukierunkowanych na realizację celów społecznych. Biorąc pod uwagę nasze aktywne działania w danym obszarze, zdecydowaliśmy się przygotować drugą edycję raportu na temat SI. Tym razem zaatutowany on jest „Sztuczna inteligencja: osiągnięcia publikacyjne z nauk ścisłych i technicznych w latach 2010-2021”

    dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji

    Efektem pracy ekspertów z Laboratorium Analiz Statystycznych OPI jest raport prezentujący osiągnięcia naukowe z zakresu SI w latach 2010–2021 w czasopismach z nauk ścisłych i technicznych. Dane o osiągnięciach publikacyjnych przedstawiono na poziomie świata, zbiorczych dokonań 27 państw Unii Europejskiej oraz Polski. Na każdym z poziomów zaprezentowano rezultaty dotyczące wielkości produkcji naukowej, wpływu danych publikacji oraz współautorstwa publikacyjnego. W przypadku Polski, eksperci OPI wskazują nie tylko zbiorcze dokonania naukowców afiliowanych do polskich instytucji, lecz także uwzględniają osiągnięcia na poziomie poszczególnych instytucji.

    Dominacja Chin, USA i Indii

    W latach 2010–2021 w ramach nauk ścisłych i technicznych w bazie Scopus zidentyfikowano łącznie 949 tys. publikacji na temat SI. Najwięcej prac przygotowali autorzy z Chin (257 tys.), Stanów Zjednoczonych (140 tys.) oraz Indii (105 tys.). Stanowiły one łącznie 45 proc. światowych publikacji o tej tematyce. Natomiast, największy wpływ miał dorobek publikacyjny badaczy z Hongkongu (MNCS = 2,07) i Szwajcarii (MNCS = 1,94). Nieco mniejszy poziom wpływu odnotowano dla prac autorów ze Stanów Zjednoczonych. Ich publikacje cytowano średnio 75 proc. częściej niż podobne prace na świecie, co uplasowało USA na piątym miejscu pod względem wielkości wskaźnika MNCS. Publikacje naukowców z Chin, czyli lidera pod względem wielkości dorobku z zakresu SI w latach 2010–2021, cytowano 20 proc. rzadziej niż pozostałe prace powstałe w omawianym obszarze. Jednak pod względem udziału publikacji – w 10 proc. najczęściej cytowanych prac o omawianej tematyce na świecie – Chiny nieznacznie wyprzedziły Stany Zjednoczone (20 proc. vs 19 proc.).

    W bazie Scopus zidentyfikowano około 196 tys. publikacji o tematyce SI w naukach ścisłych i technicznych, które powstały we współpracy międzynarodowej. Stanowiły one 21 proc. światowego dorobku publikacyjnego z tego zakresu. Liderem rankingu umiędzynarodowienia został Katar, którego cztery piąte dorobku publikacyjnego z zakresu SI stanowiły prace przygotowane we współautorstwie międzynarodowym. Kolejne pięć pozycji przypadło terytoriom i państwom z Azji Wschodniej (Makau, Hongkong i Singapur) oraz Bliskiego Wschodu (Arabia Saudyjska i Zjednoczone Emiraty Arabskie).

    UE27 – Polska za Niemcami, Francją, Włochami i Hiszpanią

    „Wśród państw UE27 najwięcej publikacji dotyczących SI w naukach ścisłych i technicznych w latach 2010–2021 przygotowali naukowcy z Niemiec (36,9 tys.), Francji (28,6 tys.), Włoch (27,9 tys.) i Hiszpanii (26,6 tys.). Na wysokim, piątym miejscu uplasowała się Polska (prawie 14 tys. prac naukowych). Z  kolei analiza wszystkich prac o tematyce SI w naukach ścisłych i technicznych, afiliowanych do instytucji działających w obrębie UE27 wskazuje, że ich poziom cytowań jest równy średniej światowej (MNCS = 1). Wpływem wyższym niż przeciętny na świecie cechowały się publikacje badaczy z 11 państw UE27. Najlepiej pod tym względem wypadły publikacje autorów z Danii, Holandii i Niemiec; ich prace cytowano odpowiednio 32, 27 i 26 proc. częściej niż podobne prace na świecie. Z kolei najniższy poziom cytowań w ramach UE27 był udziałem autorów z Łotwy (MNCS = 0,37) i Bułgarii (MNCS = 0,44).”

    dr Marzena Feldy, kierownik Laboratorium Analiza Statystycznych w OPI

    W latach 2010–2021, 39 proc. dorobku publikacyjnego o SI w naukach ścisłych i technicznych autorstwa badaczy z UE27 powstało we współpracy międzynarodowej. Największym umiędzynarodowieniem (powyżej 60 proc.) charakteryzowały się: Luksemburg, Dania, Belgia i Holandia.

    Top 3 w Polsce – AGH, PW i PWr

    Polscy naukowcy opublikowali w latach 2010–2021 prawie 14 tys. prac naukowych o tematyce SI w naukach ścisłych i technicznych. Tym samym przygotowali około 1,2 proc. publikacji o tej tematyce na świecie. Najwięcej prac opublikowali badacze, którzy afiliowali do uczelni technicznych, takich jak: Akademia Górniczo-Hutnicza (1 358), Politechnika Warszawska (1 292), Politechnika Wrocławska (1 256) i Politechnika Śląska (1 144). Prace naukowców z tych instytucji stanowiły 27 proc. wszystkich publikacji z zakresu SI w naukach ścisłych i technicznych przygotowanych w Polsce.

    Prace autorów z Polski cechowały się jednak niskim poziomem wpływu – powoływano się na nie średnio 34 proc. rzadziej niż na podobne prace na świecie (MNCS = 0,66). Wśród 36 polskich jednostek naukowych, których badacze opublikowali co najmniej 100 prac naukowych o tematyce SI w naukach ścisłych i technicznych, tylko dwie instytucje – Politechnika Bydgoska oraz Społeczna Akademia Nauk – osiągnęły ponadprzeciętną wartość wskaźnika poziomu cytowań (odpowiednio MNCS = 1,41 i MNCS = 1,04).

    Polska pozostaje także na samym końcu wśród państw UE27 (obok Łotwy i Rumunii), jeżeli uwzględnimy współautorstwo międzynarodowe. W ramach takiej współpracy powstało w badanym okresie zaledwie 27 proc. publikacji. Polscy naukowcy publikowali przede wszystkim z badaczami z państw anglojęzycznych: USA (647 wspólnych prac), Kanady (495) i Wielkiej Brytanii (344), a także z naukowcami z Chin (346). Szczególnie wysoki poziom wpływu osiągnęły prace powstałe we współautorstwie z badaczami ze Stanów Zjednoczonych (MNCS = 2,37) i z Chin (MNCS = 2,04).


    Raport „Sztuczna inteligencja: osiągnięcia publikacyjne z nauk ścisłych i technicznych w latach 2010-2021” sfinansowano ze środków Ministra Edukacji i Nauki. Opracował go zespół ekspertów OPI w składzie: dr Agata Frankowska, Bartosz Pawlik, dr Marzena Feldy, Anna Sobestjańska.

    Raport dostępny jest bezpłatnie na portalu RAD-on:

  • Technologia – czy to od niej zależy jak godzimy role życiowe w erze multitaskingu?

    Technologia – czy to od niej zależy jak godzimy role życiowe w erze multitaskingu?

    Wraz z rozwojem technologii informacyjno-komunikacyjnych, funkcjonowanie wielozadaniowe, tzw. multitasking, stało się zjawiskiem wszechobecnym, zarówno w kulturze organizacyjnej, jak i pod wpływem rosnących oczekiwań co do wydajności w życiu codziennym. Podejmujemy wiele działań w tym samym czasie, angażując się w multitasking z różnych powodów. Wymagania zawodowe i preferencje osobiste determinują funkcjonowanie wielozadaniowe, którego stopień zależy od uwarunkowań zewnętrznych otoczenia, często nieplanowanych i nieprzewidywalnych. Pandemia Covid-19 szczególnie pokazała, że w zrozumieniu multitaskingu kluczowy jest kontekst środowiska, który znacznie wykracza poza interakcję człowiek – technologia. Z dnia na dzień znaleźliśmy się w sytuacji, w której różne aspekty życia codziennego musiały przyjąć formę zdalną. W dobie pandemii stanęliśmy w obliczu nowych wyzwań, związanych z łączeniem różnych ról, przeplataniem się życia zawodowego z osobistym. W wielu procesach zintensyfikowano wykorzystanie technologii, co stanowiło zarówno szansę, jak i zagrożenie, szczególnie w nagłej sytuacji przymusu. 

    Konferencje zdalne w równoważeniu tożsamości zawodowej i osobistej

    W OPI PIB przeprowadziliśmy w tym czasie kilka badań, by dowiedzieć się, jak przebiegają procesy adaptacji do nowej rzeczywistości, zakotwiczonej w technologii. Jedne dotyczyły przejścia w tryb pracy zdalnej, inne przeniesienia konferencji naukowych z trybu stacjonarnego na tryb online. Są to obszerne zagadnienia, na które patrzyliśmy z różnych perspektyw – możliwości, jakie daje technologia, uwarunkowań otoczenia i predyspozycji indywidualnych do funkcjonowania w warunkach nowej rzeczywistości. Technologia niewątpliwie może pomagać sprostać wymaganiom napływającym z otoczenia, wynikającym z pełnienia kilku różnych ról jednocześnie – zawodowych, społecznych, osobistych. Wnioski z naszych badań sugerują jednak, że bardzo ważne dla powodzenia godzenia ich ze sobą są uwarunkowania osobiste. Owszem technologia wspiera realizowanie celów w sposób ciągły, jak w przypadku organizowania konferencji zdalnych w miejsce tradycyjnych. I choć w odczuciu naukowców osiągane są one w mniejszym stopniu w porównaniu do konferencji stacjonarnych, to dzięki użyciu technologii w czasie pandemii zachowana została ciągłość procesów, a naukowcy mogli w sposób nieprzerwany dzielić się swoimi osiągnięciami i wymieniać wiedzą. Taka forma konferencji okazała się trafiać szczególnie do kobiet, które doceniły jej walor pragmatyczny, pozwalający efektywnie łączyć funkcje wynikające z pełnienia ról zawodowych i osobistych. I tu dochodzimy do kwestii sposobów równoważenia tożsamości zawodowej i życiowej przez kobiety i mężczyzn oraz przypisywania jednym i drugim ról normatywnych. Kobiety i mężczyźni doświadczają równowagi między życiem zawodowym a prywatnym w różny sposób, mają odmienne oczekiwania wobec technologii i inne strategie funkcjonowania wielozadaniowego w celu osiągnięcia wspomnianej równowagi. Technologia, sprawność w korzystaniu z niej, jak i przekonanie o jej korzystnym działaniu na niewiele się zdają w sytuacji pandemii, w której role zawodowe i osobiste szczególnie mocno się na siebie nakładają. 

    Polichroniczność – zasób czy deficyt?

    W godzeniu tych ról ze sobą duże znaczenie okazują się mieć predyspozycje osobiste, jak poziom polichroniczności i tolerancja na przerwania. Polichroniczność definiujemy jako preferencję do angażowania się w zachowania wielozadaniowe (König i Waller, 2010). Wydaje się, że polichroniczność w dużym stopniu „pochłania” negatywne dla wydajności i samopoczucia konsekwencje funkcjonowania wielozadaniowego (Wendelien Van Eerde, 2015). Badacze postulują, że polichroniczność wspiera godzenie różnych ról zawodowych i osobistych, integrowanie wielu zadań o sprzecznych wymaganiach oraz radzenie sobie z przerwaniami występującymi w ich trakcie. Z reguły postrzegana jest jako zasób pozytywnie wpływający na zarządzanie działaniami, pozwalający zaoszczędzić czas i zredukować przeciążenia spowodowane pracą i rodziną. Z drugiej strony pojawiają się też doniesienia, że osoby preferujące multitasking zgłaszają więcej konfliktów między pełnionymi funkcjami, mimo że multitasking z założenia jest strategią integracyjną służącą zarządzaniu rolami zawodowymi i osobistymi. Polichroniczność wydaje się mieć charakter motywacyjny w funkcjonowaniu wielozadaniowym, jednak sama w sobie może być niewystarczająca do skutecznego podejmowania się realizacji wielu zadań. Rozdźwięk następuje wówczas, gdy preferencje jednostki dotyczące sposobu wykorzystania czasu i zarządzania zadaniami są niemożliwe do spełnienia w danym środowisku, o co nietrudno w sytuacji pandemii. Różne sposoby integrowania pracy i życia mogą jednak nie wywierać takiego samego wpływu na równowagę między pracą a życiem prywatnym. Z równoważeniem różnych tożsamości wiąże się szczególnie multitasking o wysokim stopniu interaktywności, który jest bardziej angażujący i wymaga większych zasobów poznawczych. W konsekwencji prowadzi to do zakłóceń, np. w pracy poprzez interakcję z członkami rodziny lub z innymi osobami bezpośrednio lub za pośrednictwem technologii (Shan Xu, Kerk Kee, and Chang Mao, 2021). W przypadku wydajności w pracy może być tak, że choć polichroniczność postrzegana jest jako bufor dla przerwań w przypadku osób preferujących wielozadaniowość, w rzeczywistości osoby te nie są w stanie lepiej sobie z nimi radzić. Być może preferencje dotyczące wielozadaniowości odzwierciedlają preferencje dotyczące sposobu wykonywania zadań w ciągu dnia, ale w ostatecznym rozrachunku na większość osób przerwania w pracy nadal mają negatywny wpływ (Juszczyk, 2020).

    Ukłon w stronę tolerancji na nieprzewidywalność

    Z przeprowadzonych w OPI PIB badań nad pracą zdalną w czasie pandemii wynika, że polichroniczność, wydawać by się mogło paradoksalnie, utrudnia zaprzestanie przetwarzania informacji, kiedy konieczne jest przełączenie uwagi zgodnie z wymaganiami sytuacji. W przeciwieństwie do preferencji multitaskingu, poziom tolerancji na przerwania determinuje umiejętność oderwania się od zadania i sprzyja dobrostanowi w sytuacji wymuszającej godzenie ról zawodowych i osobistych, wpływając na kształt i poziom konfliktów na linii praca – rodzina i rodzina – praca. Preferowanie przerwań niweluje negatywny efekt mieszania się ról zawodowych i osobistych, których przenikanie się postrzegane jest jako coś naturalnego. Taka postawa względem przerwań stanowi zasób, dzięki któremu zastopowanie w danym momencie jednego działania w celu zaangażowania się w nowe zadanie zgodnie z wymaganiami otoczenia nie jest problemem. Okazuje się, że większa podatność na czynniki zewnętrzne sprzyja spontanicznemu dostosowaniu się do nowych norm i reguł sytuacyjnych, jakie niewątpliwie generuje praca zdalna wymuszona pandemią. Korzystanie z technologii umożliwia multitasking w sytuacji tego wymagającej, może optymalizować procesy, jednak to indywidualne predyspozycje zdają się ostatecznie wpływać na kształt zarządzania różnymi zadaniami jednocześnie, wynikającymi z pełnienia ról osobistych i zawodowych. 


    Autorka / dr Agata Kopacz

    Adiunkta / liderka Zespołu ds. badań cyfrowych w Laboratorium Interaktywnych Technologii w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym. Od 2016 roku członkini Rady Naukowej w OPI PIB. Z wykształcenia psycholożka. Badaczka i analityczka danych w obszarze interakcji człowiek – komputer (HCI). Specjalizuje się w społecznych i psychologicznych aspektach korzystania z nowych mediów i technologii, w kontekście obciążenia poznawczego i multitaskingu. Posiada doświadczenie w badaniach UX, użyteczności systemów, aplikacji internetowych i interfejsów komputerowych. Jej zainteresowania naukowe wiążą się ponadto z wirtualną rzeczywistością (VR) i metodologią eye tracking. 

  • Równość płci w nauce to fikcja? Można to sprawdzić

    Równość płci w nauce to fikcja? Można to sprawdzić

    Eksperci Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego opracowali narzędzie IT do pomiaru równości płci w nauce. Dzięki dashboardowi OPI każdy może sprawdzić, jak kształtuje się udział kobiet i mężczyzn wśród studentów i absolwentów studiów z różnych dziedzin w Polsce i w innych krajach europejskich. Narzędzie to pozwala także uzyskać dane na temat kobiet zatrudnionych w sektorze nauki oraz zjawiska szklanego sufitu. Dashboard powstał w ramach projektu GENDERACTION i jest dostępny na stronie https://genderaction-data-dashboard.opi.org.pl/#/.

    Instytucje ze zbalansowaną liczbą kobiet i mężczyzn z większą szansą na otrzymanie grantu

    Komisja Europejska i inne instytucje unijne przywiązują dużą wagę do kwestii równości płci. Aspekt ten był ważny w programie ramowym Horyzont 2020 (z niego finansowany był projekt GENDERACTION) i jest również niezwykle istotny w najnowszym programie Horyzont Europa. Szczególna uwaga zwrócona jest w nim na zapewnienie, w miarę możliwości, równowagi płci w  panelach oceniających oraz w innych gremiach doradczych, takich jak rady i grupy eksperckie. Równowaga płci w tym programie jest bardzo ważnym składnikiem zarówno etapu oceny wniosku, jak i etapu realizacji projektu. W odniesieniu do oceny wniosku obowiązywać będzie zasada, że jeżeli projekty mają równą liczbę punktów oraz taką samą liczbę punktów w kryterium doskonałości (excellence) i wpływu (impact), przy dodatkowej ocenie uwzględnia się liczbę mężczyzn i kobiet wskazanych we wniosku jako kluczowe osoby. Warto więc zadbać o zróżnicowane środowisko pracy i wprowadzić plan równości płci. Od tego może zależeć dofinansowanie projektu badawczego ze  środków unijnych. Warto podkreślić także, że począwszy od tego roku, instytucje naukowe uczestniczące w programie muszą posiadać plany równości płci.

    Dostrzegając coraz większe znaczenie różnorodności w polityce UE, badacze i eksperci OPI wzięli udział w  projekcie GENDERACTION. W ramach niego opracowali specjalne narzędzie IT do mierzenia równości płci.

    – W projekcie GENDERACTION, w którym wzięli udział badacze OPI, udało się połączyć aspekt społeczny, czyli analizowania polityki naukowej w obszarze równości płci z aspektem technicznym, czyli budowaniem narzędzi, które wspomagają podejmowanie decyzji w tym zakresie. W projekcie pracowali zarówno nasi informatycy, jak i eksperci z zakresu analizy danych. Efektem tych prac jest narzędzie IT, które w prosty sposób mierzy równość płci. Każdy może skorzystać z dashboardu OPI i  sprawdzić, jak kształtuje się udział kobiet i mężczyzn na różnych poziomach nauki, do czego serdecznie zachęcammówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji.

    Konsorcjum projektu GENDERACTION składało się z aż 13 członków i 5 partnerów stowarzyszonych. Całość koordynował Instytut Socjologii Czeskiej Akademii Nauk. Budżet projektu wyniósł prawie dwa miliony euro.

    Dashboard OPI mierzy równość płci w UE

    W początkowych fazach GENDERACTION opracowano specjalne wskaźniki do mierzenia równości płci. Gdy były już gotowe, przystąpiono do przygotowania odpowiedniego narzędzia. Eksperci OPI pobrali wiarygodne dane z zewnętrznych źródeł, przede wszystkim z Europejskiego Urzędu Statystycznego, czyli Eurostatu oraz z OECD. Następnie dane były przetwarzane z użyciem języków R lub Python. Stosowano algorytmy estymacyjne, aby zapewnić kompletność danych i ich użyteczność do śledzenia trendów. Później, w warstwie środkowej obrazów danych i zapytań, użyto języka SQL, a pewne dane dodano do bazy ręcznie np. dane z raportów Komisji Europejskiej She Figures. W końcowej fazie analityczki OPI opracowały raporty w formie dynamicznej, i tak powstał dashboard OPI.

    – Użytkownik strony https://genderaction-data-dashboard.opi.org.pl/#/ otrzymuje dostęp do wiarygodnych informacji. Znaleźć tu można dane w podziale na płeć dotyczące studentów, absolwentów i pracowników naukowych w określonych dziedzinach. Może porównać także, jak kształtuje się sytuacja w Polsce, na tle innych państw UE-27. Użytkownik dashboardu OPI uzyska również ciekawe informacje, jak różnorodność pod względem płci wpływa na innowacyjność danego państwamówi dr Anna Knapińska, adiunktka w Laboratorium Baz Danych i Systemów Analityki Biznesowej w OPI.

    Warto dodać, że projekt GENDERACTION będzie kontynuowany. Pierwszego czerwca tego roku zainaugurowany został GENDERACTIONplus w ramach programu ramowego Horyzont Europa. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy również bierze w nim udział.

    Jak wygląda równość płci w polskiej nauce?

    Z danych otrzymanych z dashboardu OPI wynika, że w polskiej nauce potrzebna jest intensyfikacja działań w kierunku równości płci. Pod względem udziału kobiet wśród profesorów sytuacja w Polsce wygląda podobnie jak w innych państwach UE-27 – (Polska – 25 proc., UE-27 – 26 proc.). Natomiast udział kobiet w gremiach decyzyjnych jest już nieco niższy niż średnia dla UE-27 (Polska – 25 proc, UE-27 – 31 proc.). Największą różnicę widać natomiast w liczbie doktorantek w naukach ICT (Polska – 10 proc., UE-27 – 23 proc).

    Więcej na temat równości płci i dashboardu w najnowszym, 13. odcinku Akademii OPI PIB

  • Nowe dane już w RAD-on. Najnowsze trendy w polskiej nauce

    Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB) zaktualizował w  portalu RAD-on dane dotyczące polskiego sektora nauki i szkolnictwa wyższego. Aby ułatwić wszystkim korzystanie z  nich, OPI PIB wprowadził wiele dodatkowych funkcji. Każdy może teraz w prosty sposób sprawdzić m.in. ile osób studiuje na danym kierunku czy też ilu profesorów wykłada na danej uczelni. To jednak nie wszystko, eksperci OPI PIB przygotowali wiele raportów, które dostępne są za darmo na portalu radon.nauka.gov.pl. Z opublikowanych analiz wynika, że  studia w Polsce cieszą się coraz większą popularnością wśród obcokrajowców. W 2021 roku studiowało prawie 86 tysięcy cudzoziemców, z czego 52 proc. wybrało uczelnie niepubliczne.

    RAD-on – wszystko o nauce

    RAD-on to nowoczesna platforma informacyjna zawierająca wiarygodne dane. Opracowali ją eksperci z OPI PIB w partnerstwie z Ministerstwem Edukacji i Nauki (MEiN). Na portalu znaleźć można informacje o polskiej nauce i szkolnictwie wyższym.

    – Portal RAD-on, który powstał przy wsparciu Ministerstwa Edukacji i Nauki, prezentuje szerokie spektrum zastosowań. To sprawdzone kompendium wiedzy o sektorze nauki i szkolnictwa wyższego w Polsce. Wysokiej jakości dane, raporty i analizy dostępne na portalu wspierają współpracę nauki oraz biznesu i mogą być wykorzystywane zarówno przez instytucje publiczne, naukowców prowadzących badania, jak również firmy tworzące innowacyjne produkty i usługi. Zachęcam do korzystania z portalu RAD-on – wskazuje Minister Edukacji i Nauki Przemysław Czarnek.

    – Cieszę się, że portal RAD-on zyskuje coraz większą popularność. Stale go rozwijamy i wprowadzamy nowe funkcje, dzięki czemu korzystanie z niego jest coraz łatwiejsze. Narzędzie to bardzo dobrze realizuje misję naszego instytutu, dostarczając wszystkim informacje, które są rzetelne i pochodzą ze zweryfikowanych baz danych. Biorąc pod uwagę aktualny problem fake newsów, rola takiego portalu jak RAD-on jest bardzo dużamówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB).

    Narzędzie opracowane przez ekspertów OPI PIB zawiera nie tylko same dane, ale także wiele merytorycznych raportów i analiz. Portal jest systematycznie aktualizowany, aby prezentować jak najbardziej aktualne informacje.

    – Nasza platforma oferuje kompleksowe rozwiązania informatyczne, przez co dostęp do danych jest prostszy i szybszy. W tym roku wprowadziliśmy wiele nowych funkcji, wychodząc naprzeciw oczekiwaniom użytkowników. Dane dostępne w portalu RAD-on można filtrować na wiele sposobów, dzięki czemu dostosowane są one do indywidualnych potrzeb konkretnej osoby. Warto dodać, że  narzędzie OPI PIB umożliwia bezpłatne pobranie i wykorzystywanie zasobów w  aplikacjach, bazach danych, programach i usługach informatycznych. Portal posiada REST API, co umożliwia otwarty dostęp do danychmówi Emil Podwysocki, kierownik Laboratorium Baz Danych i Systemów Analityki Biznesowej w OPI PIB.

    Zimbabwe i Nigeria w top 10 państw pochodzenia studentów zagranicznych

    RAD-on to oprócz danych także wiarygodne źródło raportów opracowanych przez ekspertów OPI PIB. Znaleźć w nim można wiele ciekawych publikacji, zestawień i analiz na temat nauki i szkolnictwa wyższego w Polsce. Na stronie radon.nauka.gov.pl dostępne są także publikacje dotyczące sztucznej inteligencji i nowych technologii cyfrowych.

    To właśnie na portalu RAD-on można znaleźć informacje dotyczące studentów zagranicznych w  Polsce. W naszym kraju studiuje ich prawie 86 tysięcy. Ponad połowa z nich pochodzi z państw sąsiadujących – przede wszystkim z Ukrainy (36 tysięcy) i Białorusi (11 tysięcy). Ciekawe jest jednak, że w 2021 roku do rankingu top 10 krajów pochodzenia studentów zagranicznych dołączyły państwa afrykańskie – Zimbabwe i Nigeria. Większość słuchaczy zagranicznych wybiera, podobnie jak studiujący Polacy, studia stacjonarne. Jednak, w przeciwieństwie do studentów z Polski, częściej kształcą się oni na uczelniach niepublicznych (na nie zdecydowało się w 2021 roku 52 proc. cudzoziemców i 30 proc. Polaków).

    Szkoły doktorskie – nowa forma kształcenia

    Szkoły doktorskie funkcjonują od 2019 roku. W 2021 roku uczyło się w nich 12 015 osób. Wśród nich było ponad 1 400 cudzoziemców, najwięcej z Indii (18 proc.), Ukrainy (11 proc.) i Iranu (10 proc.). Największym zainteresowaniem wśród doktorantów cieszą się szkoły doktorskie specjalizujące się w naukach inżynieryjno-technicznych oraz ścisłych i przyrodniczych – kształci się w nich łącznie ponad 6 tysięcy osób.

    Trendy na uczelniach

    Portal RAD-on idealnie nadaje się do analizowania trendów w polskim szkolnictwie wyższym. Umożliwia użytkownikom wgląd w dane dotyczące sektora nauki i szkolnictwa wyższego. To  nowoczesna baza wiedzy z  dostępem do wyszukiwarki, interaktywnych raportów oraz gotowych analiz.

    – Z danych dostępnych w RAD-on wynika, że w ciągu pięciu ostatnich lat liczba osób kształcących się na uczelniach w Polsce zmniejszyła się o 5 proc., podczas gdy w grupie słuchaczy cudzoziemców nastąpił wzrost o 20 proc. Co ciekawe, trend spadkowy można było zaobserwować jedynie na uczelniach publicznych i kościelnych. Na uczelniach niepublicznych liczba studentów wzrosła o 27 proc. wśród ogółu studentów oraz o prawie 40 proc. w grupie cudzoziemcówmówi dr Aldona Tomczyńska, liderka zespołu data science w Laboratorium Baz Danych i Systemów Analityki Biznesowej w OPI PIB. Ciekawe trendy można zaobserwować także, gdy przyjrzymy się lokalizacji uczelni wyższych w  Polsce. – W województwie mazowieckim w 2021 roku działało 108 uczelni. To ponad dwukrotnie więcej niż w województwie śląskim, które zajmuje drugie miejsce pod względem liczby instytucji kształcących na poziomie wyższym (40). W samej Warszawie znajduje się 85 uczelni, czyli prawie 20 proc. wszystkich instytucji tego typu w Polsce. Podczas gdy liczba uczelni publicznych i kościelnych niemal nie zmienia się na przestrzeni lat (w 2021 roku było ich odpowiednio 131 i 17), to wyraźnie spada liczba niepublicznych szkół wyższych – z 332 w 2012 roku do 278 w roku 2021, czyli o 16 proc. Może to świadczyć o tym, że gdy na studia dostają się kolejne roczniki niżu demograficznego, na rynku edukacyjnym utrzymują się tylko placówki oferujące lepszą jakość kształceniadodaje doktor Tomczyńska.

    W RAD-on każdy znajdzie informacje nie tylko o studentach, ale także o kadrze akademickiej. Z  danych wynika, że w 2021 roku co dziesiąty nauczyciel akademicki posiadał tytuł profesora; wśród kobiet jest to 6 proc., a wśród mężczyzn 14 proc. Największą natomiast grupę akademików (47 proc.) stanowią doktorzy. Warto także dodać, że 90 proc. nauczycieli akademickich zatrudnionych jest na uczelniach publicznych, chociaż kształci się tam niecałe 70 proc. studentów.

    RAD-on jest finansowany ze środków Ministra Edukacji i Nauki.