Tag: Capgemini

  • Dlaczego sama łączność to za mało? Nowa rola telekomów w B2B

    Dlaczego sama łączność to za mało? Nowa rola telekomów w B2B

    Firmy coraz wyraźniej sygnalizują zmianę oczekiwań wobec operatorów telekomunikacyjnych – sama łączność przestaje wystarczać. Zamiast dostawców infrastruktury biznes szuka partnerów, którzy realnie wspierają wzrost, transformację i wdrażanie nowych technologii. Jak pokazuje raport „The B2B Pulse for Telcos: Six Strategic Imperatives to Win in Connectivity and Beyond (2026 edition)” Capgemini Research Institute, rośnie luka między tym, czego organizacje oczekują, a tym, co faktycznie otrzymują – aż 74% firm oczekuje od operatorów odpowiedzialności za wyniki biznesowe, podczas gdy tylko 39% dostrzega ich realny wpływ na wzrost przychodów.

    Klienci chcą więcej niż operatorzy dziś oferują

    Zmiana oczekiwań wobec operatorów telekomunikacyjnych nie jest chwilowa – to efekt przyspieszającej transformacji cyfrowej firm, które coraz silniej opierają swoją działalność na danych, automatyzacji i rozwiązaniach opartych na sztucznej inteligencji. W tym kontekście sama łączność przestaje być wyróżnikiem, a staje się jedynie punktem wyjścia do budowania wartości.

    Firmy coraz częściej oczekują od operatorów roli partnera, który nie tylko rozumie ich branżę, ale także potrafi współtworzyć rozwiązania odpowiadające na konkretne wyzwania biznesowe. Tymczasem tylko 41% organizacji uważa, że ich operator wnosi wartość wykraczającą poza podstawowe usługi, a jedynie 37% deklaruje, że otrzymuje rozwiązania dopasowane do swoich potrzeb. Jednocześnie aż 65% firm jest gotowych zapłacić więcej za oferty lepiej odpowiadające ich specyfice.

    – Coraz wyraźniej widać, że łączność przestaje być dla firm celem samym w sobie – staje się elementem większej całości. Kluczowe jest to, w jaki sposób przekłada się ona na konkretne procesy, efektywność i rozwój biznesu. To właśnie w tym obszarze operatorzy mają dziś największą przestrzeń do redefinicji swojej roli – komentuje Rafał Kurman, Lead Connectivity & Network Engineer, ERD w Capgemini Polska.

    Ekosystemy stają się nowym standardem współpracy

    Rosnąca złożoność środowisk technologicznych sprawia, że pojedynczy dostawca coraz rzadziej jest w stanie odpowiedzieć na wszystkie potrzeby organizacji. W efekcie firmy oczekują od operatorów nie tylko usług, ale także zdolności do integrowania rozwiązań różnych partnerów w spójne, działające całościowo środowiska.

    Już 65% organizacji wskazuje, że operatorzy powinni pełnić rolę integratora ekosystemu – łącząc kompetencje dostawców IT, oprogramowania, integratorów systemów czy hyperscalerów. Jednocześnie tylko 35% firm widzi, że operatorzy faktycznie realizują tę rolę. Brak takiej koordynacji oznacza dla biznesu większą złożoność, dłuższy czas wdrożeń i trudności w skalowaniu rozwiązań.

    To przesunięcie w kierunku modeli opartych na współpracy pokazuje, że przewaga konkurencyjna nie będzie już wynikać wyłącznie z posiadanej infrastruktury, ale z umiejętności łączenia technologii, partnerstw i kompetencji w sposób, który realnie wspiera rozwój klientów.

    AI i inteligentne sieci zmieniają punkt ciężkości

    Równolegle rośnie znaczenie zaawansowanych technologii, które przestają być elementem eksperymentów, a stają się fundamentem decyzji inwestycyjnych firm. W ciągu najbliższych dwóch lat aż 84% organizacji planuje inwestycje w rozwiązania AI i machine learning, a 76% w platformy AI i GenAI.

    Wraz z tym trendem rosną oczekiwania wobec operatorów jako dostawców infrastruktury zdolnej wspierać nowe modele działania. Firmy coraz częściej poszukują inteligentnych, elastycznych sieci, które umożliwiają przetwarzanie danych w czasie rzeczywistym i integrację z rozwiązaniami chmurowymi oraz edge computingiem. Już ponad połowa organizacji korzysta lub planuje wdrożyć zaawansowane usługi sieciowe, takie jak SD-WAN, prywatne 5G czy network as a service.

    Jednocześnie aż 72% firm uważa, że operatorzy pozostają w tyle za hyperscalerami i firmami technologicznymi w obszarze AI i chmury. To pokazuje, że mimo rosnącego znaczenia tych technologii, operatorzy wciąż nie są postrzegani jako ich naturalni liderzy.

    Zaufanie i doświadczenie klienta decydują o wyborze

    W świecie rosnącej niepewności geopolitycznej i regulacyjnej coraz większe znaczenie zyskują kwestie związane z zaufaniem, bezpieczeństwem i suwerennością danych. Aż 86% organizacji wskazuje, że kraj pochodzenia dostawcy ma znaczenie przy wyborze operatora, a 67% traktuje kwestie suwerenności jako kluczowy argument przemawiający za współpracą z operatorami zamiast hyperscalerów.

    Jednocześnie rosną oczekiwania wobec doświadczenia klienta. Choć 64% firm uznaje je za kluczowe, a ponad połowa jest gotowa zapłacić więcej za lepszą obsługę, aż 65% organizacji uważa proces zakupowy za zbyt skomplikowany – szczególnie w obszarze rozliczeń i przejrzystości oferty.

    – Operatorzy mają dziś wyjątkową szansę, by stać się partnerami pierwszego wyboru w obszarze transformacji cyfrowej. Warunkiem jest połączenie kompetencji technologicznych i zdolności wykorzystania AI oraz danych z takim sposobem obsługi klienta, który jest maksymalnie prosty, transparentny i łatwy we współpracy, a przy tym buduje zaufanie i zapewnia suwerenność cyfrową – podsumowuje Rafał Kurman, Lead Connectivity & Network Engineer, ERD w Capgemini Polska.


    źródło: Capgemini

  • Koniec snu o cyfrowej Europie? Capgemini stawia na pragmatyzm zamiast suwerenności

    Koniec snu o cyfrowej Europie? Capgemini stawia na pragmatyzm zamiast suwerenności

    Aiman Ezzat, CEO Capgemini, publicznie odrzucił ideę całkowitej autonomii technologicznej Starego Kontynentu, nazywając ją nierealną. Choć szef francuskiego giganta IT ubiera to w szaty pragmatyzmu, dla wielu liderów biznesowych i politycznych jego słowa to przyznanie się do trwałej zależności od Doliny Krzemowej.

    Capgemini, pozycjonując się jako „pomost” między Brukselą a amerykańskimi hiperskalerami, promuje model, w którym europejskie firmy zarządzają danymi i operacjami, ale same obliczenia powierzają infrastrukturze AWS, Google czy Microsoftu. To podejście, choć wygodne krótkoterminowo, rodzi fundamentalne pytania o bezpieczeństwo i konkurencyjność regionu w dłuższej perspektywie.

    Architektura zależności

    Ezzat dzieli suwerenność na cztery warstwy: dane, operacje, regulacje i technologię. Twierdzi, że kontrola nad pierwszymi trzema wystarczy, by Europa czuła się bezpiecznie. Jednak to czwarta warstwa – czysta moc obliczeniowa i hardware – jest fundamentem gospodarki opartej na AI.

    Pozostawienie tej warstwy w rękach amerykańskich gigantów oznacza, że europejskie firmy budują swoje najbardziej innowacyjne rozwiązania na „wynajętym gruncie”. Wobec transatlantyckich i zmienności amerykańskiej polityki handlowej, taki model czyni Europę zakładnikiem decyzji zapadających w Seattle czy Mountain View. „Suwerenne rozwiązania AI” oferowane przez Capgemini mogą okazać się jedynie estetyczną nakładką na systemy, nad którymi Europa nie ma realnej kontroli technicznej.

    Między etyką a zyskiem

    Krytycy wytykają Capgemini, że ich wizja suwerenności jest skrojona pod aktualne kontrakty, a nie pod strategiczny interes regionu. Firma sama zmaga się z problemami wizerunkowymi – niedawna decyzja o sprzedaży amerykańskiego ramienia obsługującego kontrakty rządowe pokazuje, jak trudno jest pogodzić rolę „niezależnego doradcy” z agresywną ekspansją na rynku USA.

    Partnerstwa z lokalnymi graczami, jak Mistral AI, są prezentowane jako dowód na wspieranie europejskiego ekosystemu. Jednak dopóki te modele są trenowane i hostowane na serwerach Microsoftu, mowa o „europejskim championie” pozostaje jedynie zabiegiem marketingowym. Lekcja z wystąpienia Ezzata jest ostrzeżeniem: akceptacja „rozwiązań pomostowych” może oznaczać trwałą rezygnację z budowy własnego potencjału.

  • Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane

    Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane

    W efekcie rozwój usług cloud w UE odbywa się równolegle z debatą o suwerenności danych, etycznym przetwarzaniu informacji i potrzebie budowania rozwiązań zgodnych z europejskimi wartościami. Według Komisji Europejskiej inwestycje w infrastrukturę obliczeniową i AI będą jednym z najważniejszych motorów wzrostu, ale tylko wtedy, gdy przedsiębiorstwa i instytucje zaufają, że chmura jest środowiskiem bezpiecznym, przewidywalnym i zgodnym z regulacjami.

    Europejska chmura w praktyce: od skalowalności po strategiczną niezależność

    Rosnące obciążenie systemów, digitalizacja usług publicznych i rozwój modeli AI sprawiają, że chmura publiczna staje się dla europejskich organizacji nie tylko wygodnym narzędziem, lecz kluczowym elementem infrastruktury gospodarczej. Pozwala szybko zwiększać moc obliczeniową, wdrażać nowe funkcje i przenosić procesy, które wcześniej wymagały własnych centrów danych. Jednocześnie UE coraz mocniej akcentuje potrzebę budowania rozwiązań, które zapewniają kontrolę nad przepływem danych i ograniczają zależność od pozaeuropejskich jurysdykcji.

    – Europejski model zakłada, że architektura IT musi wspierać audytowalność, kontrolę nad danymi i interoperacyjność. To nie jest koszt regulacyjny, lecz inwestycja w europejską gospodarkę, która nie ogranicza w dłuższej perspektywie jej rozwoju, ale sprawia że utrzymujemy swoją tożsamość gospodarki europejskiej – komentuje Artur Kmiecik, Head of Cloud and Infrastructure w Capgemini Polska.

    Standardy i certyfikacja: EUCS jako nowa mapa bezpieczeństwa w cloud computingu

    Aby uporządkować wymagania wobec dostawców chmury, ENISA przygotowuje EUCS – europejski schemat certyfikacji, który ma ujednolicić zasady oceny bezpieczeństwa i zgodności usług. Dla organizacji oznacza to jaśniejsze kryteria wyboru dostawcy, a dla administracji publicznej – możliwość korzystania z usług o przewidywalnym poziomie ochrony. EUCS upraszcza także dokumentację oraz integrację systemów, które muszą spełniać rygorystyczne normy branżowe. W praktyce to strategiczny krok w stronę bardziej transparentnego i ustandaryzowanego rynku chmury w całej Unii.

    Dane pod ochroną: jak GDPR i EDPB wyznaczają ramy odpowiedzialnego przetwarzania

    Regulacje dotyczące ochrony danych pozostają jednym z najsilniejszych filarów europejskiego podejścia do chmury. GDPR oraz wytyczne Europejskiej Rady Ochrony Danych precyzują, w jaki sposób projektować procesy przetwarzania i jak zapewniać zgodność w środowisku, które dynamicznie się zmienia. To wymusza praktyki oparte na privacy-by-design, regularnej ocenie ryzyka, kontroli dostępu i dokumentowaniu działań. Jednocześnie organizacje muszą mieć pełną świadomość, gdzie znajdują się ich dane oraz kto może je przetwarzać. Efektem jest model, który wzmacnia przejrzystość i przewidywalność – także w przypadku usług działających ponad granicami państw członkowskich.

    AI w chmurze – innowacja pod nadzorem regulacyjnym

    Sztuczna inteligencja naturalnie rozwija się w środowiskach chmurowych, które zapewniają skalę, moc obliczeniową i możliwość szybkich aktualizacji. Jednocześnie AI Act tworzy ramy prawne, które mają zagwarantować bezpieczeństwo użytkowników i transparentność modeli. Organizacje, które chcą korzystać z bardziej zaawansowanych systemów, muszą przygotować się na obowiązki dokumentacyjne, testy zgodności oraz ocenę ryzyka, zwłaszcza w sektorach o wysokiej odpowiedzialności. Dzięki temu rozwój AI nie odbywa się kosztem jakości danych ani praw użytkowników. Regulacje nie spowalniają innowacji – porządkują ją i nadają jej jasne zasady działania.

    Zaufanie jako waluta cyfrowej gospodarki: transparentność i kontrola nad danymi

    Złożoność środowisk cloud powoduje, że organizacje coraz częściej oczekują nie tylko zabezpieczeń, ale także pełnej audytowalności operacji. Możliwość śledzenia aktywności, wglądu w logi, analizowania uprawnień i weryfikowania procesów staje się jednym z kluczowych kryteriów wyboru dostawcy. Firmy i instytucje chcą mieć pewność, że wiedzą, kto i w jaki sposób przetwarza ich dane – a transparentność staje się równie istotna jak techniczne zabezpieczenia.

    – Architektura IT w naszym regionie musi uwzględniać nie tylko skalę i moc obliczeniową, ale także wymagania stawiane przez Unię Europejską. W praktyce zaufanie do chmury staje się walutą cyfrowej gospodarki – organizacje, które potrafią je zdobyć poprzez kontrolę nad przepływem danych i odpowiedzialne wykorzystanie AI, zyskają realną przewagę konkurencyjną. Przyszłość europejskiej chmury to nie tylko interoperacyjność, ale także etyczna innowacja, która chroni użytkowników i wzmacnia gospodarkę opartą na danych – dodaje Artur Kmiecik, Head of Cloud and Infrastructure w Capgemini Polska.

    Przyszłość europejskiej chmury: interoperacyjność, etyka i odpowiedzialna innowacja

    Inicjatywy takie jak GAIA-X czy europejskie przestrzenie danych pokazują, że przyszłość chmury w UE to rozwój systemów, które mogą współpracować ze sobą niezależnie od dostawcy. Interoperacyjność ma ułatwić tworzenie projektów międzysektorowych, automatyzację procesów i wymianę danych w sposób zgodny z najwyższymi standardami etycznymi. Jednocześnie rośnie znaczenie zasad odpowiedzialnej innowacji, które mają chronić użytkowników i wzmacniać gospodarkę opartą na danych. To kierunek, który pozwoli Europie rozwijać nowoczesne technologie bez rezygnacji z wartości, które definiują jej podejście do cyfryzacji

    źródło: Capgemini

  • Capgemini inwestuje w GenAI. Kupuje WNS za 3,3 mld dolarów

    Capgemini inwestuje w GenAI. Kupuje WNS za 3,3 mld dolarów

    Francuski gigant IT, Capgemini, ogłosił przejęcie indyjskiej firmy WNS za 3,3 miliarda dolarów w gotówce. To jedna z największych akwizycji europejskiego gracza technologicznego w ostatnich latach – i wyraźny sygnał, że Capgemini zamierza mocno postawić na sztuczną inteligencję generatywną oraz automatyzację procesów biznesowych.

    WNS, notowana na Nasdaq firma specjalizująca się w outsourcingu procesów biznesowych (BPO) i analizie danych, obsługuje takich klientów jak Coca-Cola, T-Mobile czy United Airlines. Dzięki akwizycji Capgemini rozszerzy swoją obecność przede wszystkim na rynku amerykańskim, a także zwiększy swoje możliwości w zakresie doradztwa AI i tzw. agentycznej sztucznej inteligencji – obszaru, który w 2025 roku staje się coraz istotniejszy dla klientów korporacyjnych szukających nie tylko oszczędności, ale i elastyczności operacyjnej.

    Mimo strategicznego potencjału transakcji, inwestorzy zareagowali sceptycznie – akcje Capgemini spadły o 5% po ogłoszeniu informacji. Analitycy wskazują, że choć przejęcie ma być natychmiast akrecyjne dla przychodów i marż, jednocześnie ogranicza zdolność Capgemini do dalszych inwestycji bez naruszania bilansu.

    Zastrzeżenia budzi również sama branża BPO – segment, który może być szczególnie narażony na zakłócenia wynikające z dynamicznego rozwoju GenAI. W modelach opartych na pracy ludzkiej automatyzacja może z jednej strony ograniczyć koszty, z drugiej jednak zredukować popyt na tradycyjne usługi outsourcingowe. To ryzyko, które Capgemini najprawdopodobniej próbuje obrócić w atut: łącząc skalę WNS z własnymi kompetencjami technologicznymi, zamierza przekształcić klasyczne BPO w inteligentne, hybrydowe usługi procesowe.

    Transakcja, którą Capgemini planuje sfinalizować do końca 2025 roku, wpisuje się w szerszy trend konsolidacji i modernizacji usług IT poprzez AI. Dla europejskiej firmy może to być kluczowy krok w walce o dominację na rynku usług wspieranych sztuczną inteligencją, ale sukces tej strategii będzie zależeć od zdolności do szybkiej integracji, dostarczenia mierzalnych efektów klientom i przekonania inwestorów, że WNS to właściwe ogniwo w tej układance.

  • 30 incydentów dziennie – jak AI zmienia cyberbezpieczeństwo?

    Sztuczna inteligencja, w szczególności generatywna AI (GenAI), staje się kluczowym elementem zarówno w obronie, jak i w ofensywie w świecie cyberbezpieczeństwa. Najnowszy raport Capgemini „Nowe systemy zabezpieczeń, nowe zagrożenia: co AI i Gen AI wnoszą do cyberbezpieczeństwa” przedstawia niepokojące dane – aż 92% organizacji doświadczyło naruszeń bezpieczeństwa w minionym roku, co oznacza niemal dwukrotny wzrost w stosunku do 2021 roku. Wiele z tych incydentów to efekt rosnącego wykorzystania nowoczesnych technologii przez cyberprzestępców.

    Narastająca fala zagrożeń

    Generatywna AI otwiera nowe możliwości dla cyberataków. Technologia ta pozwala przestępcom tworzyć zaawansowane złośliwe oprogramowanie, realistyczne wiadomości phishingowe czy oszustwa oparte na deepfake’ach, które dotykają reputacji i finansów firm. Według raportu Capgemini, 43% organizacji poniosło straty finansowe wskutek ataków z użyciem deepfake’ów, a kluczowe sektory, takie jak bankowość, ubezpieczenia czy telekomunikacja, raportują dziesiątki incydentów dziennie.

    Generatywna AI obniża również próg wejścia dla mniej zaawansowanych przestępców, co skutkuje większą liczbą ataków i ich wyrafinowaniem. Przykładem są ataki typu prompt injection, które wykorzystują manipulacje danymi wprowadzanymi do modeli AI, prowadząc do naruszeń bezpieczeństwa.

    AI jako tarcza i miecz

    Choć GenAI niesie za sobą ryzyko, jednocześnie oferuje zaawansowane narzędzia obronne. Ponad połowa organizacji uczestniczących w badaniu Capgemini oczekuje, że dzięki AI będzie mogła szybciej wykrywać zagrożenia i reagować na nie skuteczniej. Automatyzacja oparta na AI pozwala na analizowanie ogromnych ilości danych w czasie rzeczywistym, co znacząco skraca czas reakcji i minimalizuje szkody. Ponadto, rozwiązania oparte na samouczących się algorytmach mogą lepiej dostosowywać się do dynamicznie zmieniającego się środowiska zagrożeń.

    Według raportu, 60% firm planuje zwiększyć budżet na cyberbezpieczeństwo, a 66% traktuje AI jako priorytet w obszarze ochrony danych. Narzędzia AI stosowane w Centrach Operacji Bezpieczeństwa (SOC) pozwoliły już na skrócenie czasu wykrywania i usuwania zagrożeń o co najmniej 5%.

    Przyszłość cyberbezpieczeństwa

    Generatywna AI to szansa na rozwój bardziej prewencyjnych strategii obronnych, w tym zaawansowanych symulacji zagrożeń. Aż 62% firm uważa, że technologia ta odegra kluczową rolę w wykrywaniu podatności i minimalizowaniu ryzyka. Mimo to, jej wykorzystanie wymaga odpowiednich regulacji i zaawansowanych mechanizmów ochronnych, aby uniknąć manipulacji czy nadużyć.

    W obliczu dynamicznego rozwoju technologii GenAI, kluczowe będzie znalezienie równowagi między jej potencjałem a zagrożeniami, jakie stwarza. Jedno jest pewne – jej wpływ na cyberbezpieczeństwo będzie coraz większy, zmieniając zarówno krajobraz zagrożeń, jak i metody obrony.

  • AI tworzy, programiści doskonalą: przyszłość tworzenia oprogramowania

    AI tworzy, programiści doskonalą: przyszłość tworzenia oprogramowania

    Badanie przeprowadzone przez Capgemini ujawnia, że już w ciągu najbliższych dwóch lat generacyjna sztuczna inteligencja (AI) będzie wspierać programistów w ponad 25% ich pracy, obejmującej projektowanie, rozwój i testowanie oprogramowania. Wyniki te wskazują na znaczący wpływ AI na codzienne obowiązki specjalistów IT, prowadząc do głębokich zmian w ich roli i sposobie pracy.

    Więcej czasu na innowacje

    Według raportu Capgemini, 80% ekspertów IT jest przekonanych, że ich rola ulegnie znaczącej transformacji dzięki narzędziom i rozwiązaniom AI. Automatyzacja prostych, powtarzalnych zadań przez AI pozwoli profesjonalistom na skoncentrowanie się na bardziej wymagających i wartościowych działaniach. Ponadto, dla ponad trzech czwartych programistów, sztuczna inteligencja ma potencjał ułatwienia współpracy z zespołami z nietechnicznych obszarów firmy, co może prowadzić do bardziej innowacyjnych i efektywnych rozwiązań.

    Początki, ale już widoczne korzyści

    Chociaż integracja generacyjnej AI w procesie tworzenia oprogramowania jest nadal na wczesnym etapie – dziewięć na dziesięć firm dopiero się skaluje – badanie wskazuje, że przedsiębiorstwa już teraz dostrzegają liczne korzyści wynikające z inicjatyw AI. Na arenie międzynarodowej 61% firm zauważa wsparcie dla innowacji dzięki AI.

    Poprawa jakości i wydajności

    AI nie tylko przyczynia się do innowacji, ale również do poprawy jakości oprogramowania. Na całym świecie 49% firm ankietowanych zauważyło poprawę jakości. Eksperci przewidują, że dzięki AI wydajność może wzrosnąć średnio od 7% do 18%, a oszczędność czasu na niektórych zadaniach może wynieść nawet do 35%.

    Wykorzystanie zdobytego czasu

    Organizacje na całym świecie planują wykorzystać czas zaoszczędzony dzięki AI na działania zorientowane na przyszłość, takie jak rozwój nowych funkcji oprogramowania (50%) i dalsza edukacja (47%).

    Badanie Capgemini jasno pokazuje, że generacyjna sztuczna inteligencja ma potencjał, by zrewolucjonizować pracę programistów, automatyzując rutynowe zadania i uwalniając czas na bardziej kreatywne i wymagające projekty. W miarę jak firmy kontynuują integrację AI, możemy spodziewać się dalszych usprawnień w jakości i wydajności oprogramowania oraz zwiększenia innowacyjności w całym sektorze technologicznym.

  • NIS2: ochrona przed cyberatakami czy biurokratyczny wymóg?

    NIS2: ochrona przed cyberatakami czy biurokratyczny wymóg?

    W październiku 2024 roku upływa termin przyjęcia przez wszystkie państwa członkowskie Unii Europejskiej dyrektywy NIS2. Oznacza to, że do tego dnia firmy należące do kluczowych, określonych przez UE, sektorów muszą wprowadzić szereg procedur związanych z cyberbezpieczeństwem. Czy tak szczegółowe regulacje są potrzebne firmom i ich klientom? Czy Unia Europejska ma przed czym się chronić? A może NIS2 to przejaw legendarnej biurokracji unijnej?

    Unia Europejska zdecydowała się wprowadzić regulację NIS2 w odpowiedzi na rosnące wyzwania związane z cyberbezpieczeństwem. Wzrost liczby zaawansowanych cyberataków oraz rosnące znaczenie infrastruktury cyfrowej sprawiły, że UE uznała konieczność uaktualnienia i wzmocnienia swojego podejścia do zarządzania zagrożeniami. Regulacja NIS2 ma na celu zwiększenie odporności sektorów krytycznych, takich jak energetyka czy usługi finansowe, poprzez ustanowienie jednolitych norm bezpieczeństwa. Ponadto, wprowadzenie tych przepisów jest odpowiedzią na potrzebę koordynacji działań na poziomie Unii, aby skutecznie reagować na wspólne wyzwania związane z cyberbezpieczeństwem.

    Poprzednie regulacje unijne dotyczące cyberbezpiczeństwa (NIS1) zostały wprowadzone w 2016 roku. Z punktu widzenia rozwoju technologii, a co za tym idzie metod cyberprzestępców, od tego momentu minęły już niemalże wieki. Dla przykładu, w 2016 roku niecałe 50% populacji światowej posiadało smartphone, w roku 2020 było to już prawie 80%. Technologia rozwija się w ostatnich latach niezwykle szybko, a cyberprzestępcy często znajdują się w awangardzie. Przepisy prawa muszą za nimi nadążać, a najlepiej, żeby wyprzedzały ich działaniamówi Filip Brzóska, Chief Information Security Officer w Capgemini Polska.

    Istotnym argumentem za rozszerzeniem przepisów na firmy z kolejnych sektorów jest coraz bardziej widoczne zatarcie się granic pomiędzy sektorem publicznym a prywatnym. Dobrą ilustracją takiej sytuacji są opisywane niedawno przez ESET ataki na polskie firmy logistyczne. Sabotaż związany był z trwającą za naszą granicą wojną i wsparciem, którego Polska udziela Ukrainie.

    NIS2 – UE stawia na współpracę

    Po ośmiu latach od wprowadzania NIS1 Unia Europejska swoje działania z zakresu cyberbezpieczeństwa chce oprzeć na nowych fundamentach, czyli bliskiej współpracy. Poprzednia wersja dyrektywy pozwalała państwom członkowskim na większą dowolność we wdrażaniu rozwiązań, co obecnie oznacza, że stopień unifikacji procedur jest niewystarczający, aby zapewnić płynną współpracę międzynarodową i między sektorową. Dziś jasne jest, że cyberprzestępstw nie można traktować jak izolowanych przypadków, z którymi poszczególne państwa mogą sobie radzić same. Kluczem do wspólnego bezpieczeństwa jest współpraca.

    To właśnie dlatego Unia Europejska określiła listę branż, w których obowiązują nowe przepisy. Obowiązek raportowania wszystkich incydentów bezpieczeństwa do odpowiednich instytucji państwowych pozwoli na płynny przepływ informacji pomiędzy państwami i instytucjami unijnymi. Dzięki takiemu podejściu możliwe jest wspólne zapobieganie atakom oraz odpowiednio szerokie reagowanie, jeśli do nich dojdzie.

    Co muszą zmienić firmy?

    Do 17 października 2024 roku średnie i duże firmy oraz instytucje z sektorów energii, transportu, bankowości, infrastruktury rynku finansowego, zdrowia, wody pitnej, ścieków, infrastruktury cyfrowej, administracji publicznej, przestrzeni kosmicznej i żywności, a także firmy należące do ich łańcuchów dostaw, będą musiały wprowadzić szereg rozwiązań i procedur bezpieczeństwa.

    Przede wszystkim będą miały obowiązek raportowania wszelkich incydentów bezpieczeństwa, co oznacza, że konieczne stanie się rozwój systemów, które je bezbłędnie wykrywają. Zwiększą się również wymagania z zakresu ujawniania i obsługi luk bezpieczeństwa, efektywnego szyfrowania oraz testowania zabezpieczeń. Co więcej, odpowiedzialność za zgodność działań firmy z wymogami ustawy będzie ponosić osobiście kierownictwo firm.

    – Każde nowe przepisy prawne, które narzucają wysokie wymagania, a do tego grożą surowymi karami, mogą w pierwszym odruchu być obierane jako opresyjne. Jeśli chodzi o NIS2 to zupełnie mylny sposób pojmowania zmian. Prawda jest taka, że ochrona na poziomie, którego wymagają od firm nowe przepisy leży w ich najlepszym interesie i powinna być stosowana od dawna. Szacuje się, że ataki typu ransomware dotykają 66% procent firm. Przewiduje się, że do 2025 roku koszty, które rocznie ponosi świat na skutek cyberprzestępczości, wzrosną do 10,5 biliona dolarów. Nie mówiąc już o tym, że ochrona firm przed atakami oznacza większe bezpieczeństwo ich klientów. W ostatnich miesiącach kilkakrotnie słyszeliśmy o dużych wyciekach danych. Cyberprzestępcy sprzedają je w darknecie i w konsekwencji kradzież tożsamości i utrata oszczędności jest obecnie powszechnym i realnym zagrożeniemkomentuje Filip Brzóska.

  • Nowe złoto banków: rozbudowane systemy danych przyszłością sektora finansowego

    Nowe złoto banków: rozbudowane systemy danych przyszłością sektora finansowego

    Konstruowanie rozbudowanych systemów danych pomaga instytucjom finansowym stać się bardziej elastycznymi i działać szybciej. To może okazać się kluczowe w przypadku wystąpienia sytuacji kryzysowej. W kwestii danych branża usług finansowych ma jedne z największych możliwości, ale także stoi w obliczu ogromnego ryzyka i presji. Wraz ze wzrostem konkurencji i rosnącymi oczekiwaniami klientów, firmy i banki na drodze do wprowadzania większej innowacyjności muszą stawiać czoła coraz większej liczbie wyzwań i wymagań związanych z przepisami, bezpieczeństwem i prywatnością.

    Firmy świadczące usługi finansowe, które wdrażają rozwiązania chmurowe, mogą wykorzystać rosnący zasób danych, przyspieszając wprowadzanie nowych produktów i optymalizując strategie cenowe. Nie bez powodu na rynku uciera się powiedzenie data is new gold – czyli z angielskiego „dane są nowym złotem”.

    Dziś są one bowiem największą wartością, jaką posiadają organizacje – są na wagę złota.

    Bankowość oparta o dane – chroni i wzbogaca

    Finanse stały się wiodącym sektorem pod względem budowania ekosystemów danych. Branża w pewnym sensie wyznacza drogę dla firm z sektorów, które dopiero zaczynają odkrywać możliwości, jakie może otworzyć przed nimi wykorzystanie danych. Jedną z nich jest z pewnością zwiększenie wydajność, ale co ważniejsze, zbieranie danych może stać się fundamentem pod innowacje. Organizacje zyskają większą swobodę działania – zaczną sprawniej tworzyć  nowe produkty i szybciej wprowadzać je na rynek.

    „Przyjęcie przetwarzania w chmurze i zmieniająca się ekonomia danych umożliwiły instytucjom finansowym jeszcze lepsze wykorzystanie gromadzonych zasobów. Dziś firmy wiedzą już, że muszą szybko się dostosować. Pozyskując dane z różnych źródeł, mogą wzbogacić własne zbiory i udoskonalić się w obszarach takich, jak zarządzanie ryzykiem. W tym pomagamy dziś naszym klientom. Przetwarzamy dane w informacje i to w połączeniu z wiedzą ekspertów daje wnioski. Uczestniczymy zatem w procesie tworzenia wiedzy, która niejednokrotnie jest ratunkiem w sytuacjach kryzysowych. Upadki wielkich banków, które miały miejsce w latach 2007-2008, mogłyby mieć mniejsze konsekwencje, gdyby wykorzystywano wówczas dane w takim stopniu, jak robimy to obecnie. Oczywiście to było wówczas niemożliwe, bo wiele z architektur IT zostało zbudowanych znacznie później. Dziś, to, czym zajmujemy się w Capgemini ma na celu między innymi pomoc w uniknięciu kolejnych kryzysów.”

    Karolina Dopierała, Managing Software Consultant w Capgemini Polska

    Wszystko dziś opiera się o dane. A jeśli jeszcze się nie opiera – to powinno. Posiadanie rozbudowanych, zautomatyzowanych i skorelowanych systemów danych umożliwia przewidywanie kryzysów, między innymi w instytucjach finansowych. Przykładowo – jeśli zainwestujemy w systemy danych wykrywających wczesne sygnały ostrzegawcze, możemy uniknąć lub zminimalizować straty wynikające z potencjalnych awarii. Dzięki zastosowaniu nowoczesnych metod analizy danych oraz możliwości masowego ich przetwarzania prawdopodobnie bylibyśmy w stanie z odpowiednim wyprzedzeniem zauważyć niepokojące trendy podobne do tych, które wystąpiły w kryzysie w latach 2007-2008, a następnie podjąć odpowiednie kroki prewencyjne.

    Chmura wspiera rozwój innowacji

    Duże zbiory danych i sztuczna inteligencja wymagają dużej mocy obliczeniowej, dlatego banki coraz częściej decydują się na wykorzystanie chmury. To rozwiązanie nie tylko skalowalne, dzięki czemu jesteśmy w stanie obsłużyć wysokie wymagania obliczeniowe, ale także opłacalne. Ponieważ jednak starsze systemy bankowe nie zostały zaprojektowane z myślą o rozproszonych środowiskach obliczeniowych, przeniesienie ich do chmury stanowi wyzwanie. Mimo to banki i instytucje finansowe przychylają się do pomysłu przeniesienia starszych systemów nie tylko do chmury, ale także do przekształcenia ich w platformy chmurowe.

    Oczywiście, aby rozpocząć drogę w kierunku rozwoju ekosystemów danych, firmy muszą wyznaczyć jasne długoterminowe cele i zrozumieć, co nimi kieruje z biznesowego punktu widzenia. Odpowiedź na te pytania pomoże zidentyfikować potrzeby technologiczne i możliwości biznesowe wymagane do realizacji tych planów. Jednak gdy firma jest gotowa do podjęcia tych kroków, dostawcy chmury i partnerzy technologiczni dysponują odpowiednimi narzędziami, które mogą pomóc w szybkim przeprowadzeniu tego procesu.

    Firmy dokonują ogromnych inwestycji w technologie i usługi, które jeszcze bardziej obniżają koszty i czynią je bardziej dostępnymi. Podczas gdy początkowo koncentrowano się tylko na wprowadzaniu klientów do chmury i oszczędzaniu pieniędzy, dostawcy usług w chmurze oferują teraz bardziej wyrafinowane narzędzia dla określonych branż, takich jak finanse. Dziś banki nie muszą zaczynać od zera. Prowadzone są ogromne prace badawczo-rozwojowe w celu ułatwienia takiej wymiany danych. Bariery wejścia na rynek znikają. Wprowadzanie innowacji w zakresie wymiany danych i ich ekosystemów staje się coraz łatwiejsze i coraz bezpieczniejsze. Jeżeli banki zdecydują się podjąć to wyzwanie mamy szansę na znacznie bardziej stabilną i odporną na kryzysy gospodarkę.

  • Rozmowa z botem, która przypomina rozmowę z człowiekiem – jak działa digital human?

    Rozmowa z botem, która przypomina rozmowę z człowiekiem – jak działa digital human?

    Na fali popularności ChatGPT w mediach pojawia się wiele treści wzbudzających strach przed AI lub budzących niechęć wobec technologii opartej o interfejs czatu. Opór klientów przed korzystaniem z konwersacyjnej sztucznej inteligencji może zniechęcić  biznes do korzystania z niej. Istnieje jednak sposób na zbudowanie empatycznej relacji z konsumentem przy jednoczesnej automatyzacji procesów obsługi klienta. Oto digital human, czyli szansa na wyniesienie chatbotów do nowych standardów kontaktu z człowiekiem.

    Digital human to narzędzie, które znacząco różni się od rozwiązań, z którymi obecnie często spotykamy się w obsłudze klienta. To bot, który poza rozbudowaną wiedzą na temat danego produktu, jest wyposażony również w interfejs znacząco ułatwiający interakcje z klientem. Przede wszystkim digital human ma warstwę wizualną, czyli, pisząc wprost: wygląda jak człowiek, potrafi poruszać się oraz gestykulować, a jego/jej twarz wyraża emocje. Rozmowa z tym botem tylko w niewielkim stopniu różni się od rozmowy wideo z osobą pracującą w dziale obsługi klienta. Nad projektami typu digital human pracuje m.in. Capgemini Polska.

    Najistotniejszym elementem tego interfejsu jest możliwość reagowania na wypowiedzi rozmówcy w empatyczny sposób. Ta unikalna umiejętność wyróżnia digital human spośród wszystkich stosowanych do tej pory rozwiązań. Robot reagując na słowa osoby, z którą rozmawia może okazać w sposób niewerbalny zrozumienie danej sytuacji, a nawet adekwatnie dostosować do niej ton swojego głosu. Te funkcje mają szansę stać się przełomowe w komunikacji pomiędzy ludźmi, a botami. Sfera niewerbalna stanowi przecież aż 55% naturalnej komunikacji. Ton głosu człowieka przekazuje aż 38%[1] kluczowych informacji.

    – Digital human to rozwiązanie, które ma szansę wpłynąć na preferencje klientów, a to właśnie one są kluczowe przy wprowadzaniu zmian na szeroka skalę. Coraz więcej osób jest otwartych na interakcje z automatycznymi rozwiązaniami technologicznymi opartymi o konwersacyjną sztuczną inteligencję. To, co jednak zwykle przeszkadza nam w rozmowach z chatbotami to ich brak rozumienia niuansów czy typowy dla nich „sztywny” sposób komunikowania się. Digital human ma olbrzymie szanse znieść te bariery. Empatyczna, niewerbalna komunikacja, która wyróżnia to rozwiązanie sprawia, że rozmowa z nim przebiega w prawie naturalny sposób. Jeśli dodamy to tego technologię typu ChatGPT, która może dynamicznie tworzyć treści, efekt będzie robił jeszcze większe wrażenie  – mówi Paweł Bochenek, Senior Automation Service Delivery Manager & Automation Consultant w Capgemini Polska.

    Digital human sprawdza się nie tylko przy udzielaniu prostych informacji technicznych, ale również ułatwia procesy wymagające większej wnikliwości i bliższego kontaktu z klientem. Ciekawym przykładem zastosowania tego rozwiązania na rynku medycznym jest wykorzystanie go w roli wirtualnej pielęgniarki czy wirtualnego pielęgniarza, gdzie zbiera wywiad medyczny. To rutynowe dla człowieka zadanie idealnie wpisuje się w kompetencje jego wirtualnego bliźniaka. Z jednej strony jest przewidywalne i powtarzalne, a dzięki temu możliwe do zautomatyzowania, z drugiej zaś strony wymaga postawy wspierającej otwartość i zaufanie pacjenta, której nie może zagwarantować zwykły chatbot.

    To rozwiązanie sprawdzi się również w firmach, których klienci są zaawansowanymi użytkownikami nowych technologii. Rozmowa z digital human nie wymaga wcześniejszej wiedzy czy sprawnego posługiwania się komputerem. Wystarczy odebrać połączenie wideo i rozpocząć konwersację. Ta łatwość użytkowania może stanowić benefit np. dla seniorów. Oparcie systemu na komunikacji wideo sprawia, że digital human doskonale nadaj się do roli trenera personalnego, instruktora czy osoby prezentującej ofertę np. podczas wewnętrznych procesów onboardingowych.

    Wprowadzenie do biznesu tego rozwiązania na szeroką skalę to nie tylko rewolucja dla klientów, lecz jest to również zmiana w zapotrzebowaniu na rynku pracy. Aby zaprojektować digital human, tak by spełniał oczekiwania danej firmy, potrzebny jest zespół programistów, specjalistów z zakresu AI, modelowania 3D, przetwarzania języka naturalnego oraz przedstawicieli zawodów, które w tym momencie są jeszcze rzadkością.

    – Aby stworzyć digital human, który będzie w stanie w naturalny sposób komunikować się z klientem konieczna jest nie tylko doskonała warstwa graficzna. Kluczowym elementem takiego projektu jest odpowiednie dobranie języka, tak aby był w najwyższym stopniu precyzyjny, a jednocześnie nie tworzył barier i wrażenia sztuczności. Aby to osiągnąć, na rynku pracy będą musieli pojawić się specjaliści z zakresu conversational design. Myślę, że będzie to interesujące otwarcie świata IT na osoby o zainteresowaniach humanistycznych. Widzę dużą wartość i potencjał w rosnącej dywersyfikacji w ramach zespołów projektowych – opowiada Wojciech Najdyhor, Automation Consultant, Conversational AI Expert w Capgemini Polska.

    Standardy obsługi klienta wciąż rosną i nie ulega wątpliwości, że ich realizacja nie może się opierać wyłącznie na ludziach. Robotyzacja tego sektora jest konieczna i może przynieść ogromne korzyści zarówno dla firm, jak i odbiorców ich usług. Łącząc rzetelną pracę ludzi z najnowszymi osiągnięciami technologicznymi będziemy mogli otrzymać rozwiązania dostępne 24/7, działające w nieograniczonej liczbie języków, generujące oszczędności dla przedsiębiorstw, a jednocześnie bliskie komunikacji, która jest dla nas najbardziej naturalna.

  • Capgemini z nowymi planami rozwoju w Polsce: Piotr Wierzbicki dyrektorem generalnym Global Delivery Center w Polsce

    Capgemini z nowymi planami rozwoju w Polsce: Piotr Wierzbicki dyrektorem generalnym Global Delivery Center w Polsce

    Capgemini Polska mianowała Piotra Wierzbickiego na stanowisko Dyrektora Generalnego Capgemini Global Delivery Center w Polsce. Globalna sieć centrów umożliwia Capgemini świadczenie usług biznesowych i transformacyjnych dla klientów z różnych krajów, w wielu językach i przez całą dobę. Dzięki rozbudowanej sieci centrów na całym świecie, Capgemini jest w stanie zapewnić klientom usługi na najwyższym poziomie.

    Global Delivery Center w Polsce ma za zadanie wspierać i przyspieszać skalowanie technologii oraz usług biznesowych dla klientów z Europy oraz obu Ameryk. Centrum zostało utworzone w odpowiedzi na rosnące zapotrzebowanie klientów na ofertę Capgemini Polska, które świadczy usługi w zakresie Cloud Infrastructure Services, Intelligent Operations, Engineering, Research and Development, Data and Artificial Intelligence, Cybersecurity, Business Transformation Services, Finance and Accounting oraz Financial Services.

    „Bardzo miło mi powitać w Capgemini Piotra Wierzbickiego, który poprowadzi Global Delivery Center w Polsce. Nasza sieć centrów ma kluczowe znaczenie dla wspierania procesu transformacji naszych klientów w każdym miejscu na świecie. Piotr ma wszystkie atuty, aby z powodzeniem im towarzyszyć i realizować ambicje Capgemini w Polsce. Piotr jest znakomitym ekspertem i liderem biznesowym. Może pochwalić się nie tylko 20-letnim doświadczeniem, ale również poczuciem misji w dostarczaniu najwyższej jakości rezultatów oraz rozległą wiedzą branżową.”

    Jean-Philippe Bol, Dyrektor ds. Transformacji i Industrializacji Operacyjnej Grupy, Członek Zarządu Capgemini

    „Global Delivery Center, wraz ze swoimi wysokiej klasy ekspertami w szybko rozwijających się dziedzinach takich, jak technologie chmurowe, sztuczna inteligencja, cyberbezpieczeństwo, inteligentne operacje czy inżynieria, kształtuje przyszłość głównych gałęzi przemysłu. Wykorzystam więc moje doświadczenia zebrane przez lata, aby wspierać wciąż rosnącą grupę międzynarodowych klientów w procesach transformacyjnych. Codzienna współpraca z utalentowanym zespołem ekspertów, który opiera swoje działania na wartościach Capgemini i dąży do biznesowej doskonałości jest dla mnie dużym wyróżnieniem.”

    Piotr Wierzbicki, Dyrektor Generalny Capgemini Global Delivery Center w Capgemini Polska

    Piotr Wierzbicki posiada ponad 20-letnie doświadczenie w pracy na kluczowych stanowiskach najwyższego szczebla z zakresu sprzedaży, finansów, które zdobył pracując jako CFO lub CEO w międzynarodowych firmach z branży IT (takich jak m.in. Sun Microsystems czy Sygnity). W ostatnim czasie pełnił funkcję Prezesa Zarządu Atos Polska SA oraz Atos Global Delivery Center Polska sp. z o.o. Jest absolwentem wydziału Handlu Zagranicznego Szkoły Głównej Handlowej (SGH) w Warszawie. Ukończył również szereg szkoleń z zakresu finansów, zarządzania, sprawozdawczości finansowej i zarządzania projektami, w tym Business Program for Top Executives w IMD Business School.

  • Capgemini: Na home office jesteśmy bardziej wydajni

    Capgemini: Na home office jesteśmy bardziej wydajni

    Według Instytutu Badawczego Capgemini praca zdalna jest znacznie bardziej produktywna niż ta wykonywana w biurze. Jak pokazują badania zrealizowane przez Francuzów, na początku drugiej połowy 2020 roku większość firm, które zostały poddane analizie, odnotowała znaczny wzrost wydajności pracowników. Wyzwanie na 2021? Utrzymanie tego trendu.

    Wygląda na to, że nauczyliśmy się pracy zdalnej, przynajmniej taki wniosek płynie z analizy raportu “Przyszłość pracy: od zdalnej do hybrydowej”, przygotowanego przez Capgemini. Jak podaje instytut badawczy, w drugiej połowie tego roku, aż 63% badanych przedsiębiorstw odnotowało większą wydajność pracowników. Kogo eksperci wzięli po lupę? Pół tysiąca globalnych przedsiębiorstw z różnych sektorów, których przychody wynoszą co najmniej 1 mld USD. Grupa respondentów liczyła łącznie 5 tys. osób, w skład której wchodziła zarówno kadra kierowniczą, jak i pracownicy szeregowi.

    Przyszłość pracy jest w domu

    Pod względem produktywności pierwsze miejsce zajmuje branża informatyczna. Ponad dwie trzecie respondentów z sektora IT (68%) deklaruje, że w domu są znacznie bardziej produktywni niż w biurze.

    – Branża technologiczna ma szereg sprawdzonych narzędzia do pracy zdalnej. To ważne, ale nie najważniejsze, ponieważ dla zatrudnionych w firmach IT możliwość i sama telepraca nie jest niczym nowym. W branży na próżno szukać firmy, która nie zezwala na pracę na odległość, nawet w niepełnym zakresie.zauważa Sławomir Kuźniak z technologicznej firmy BPSC i dodaje – Przejście do modelu zdalnego nie było większym problemem, nawet dla całej firmy. 72 godziny, tyle potrzebowaliśmy, żeby sprawnie przenieść się do wirtualnego biura. – komentuje ekspert.

    Przykład BPSC pokazuje, że liczebność kadry nie jest przeszkodą. Katowicki producent ERP-a zatrudnia obecnie kilkaset osób pracujących w wielu działach. Analiza Capgemini wykazała, że niewiele mniejszą wydajność mają pracownicy zajmujący się obsługą klienta (60%) oraz sprzedażą i marketingiem (59%).

    – Cyfryzacja i wykorzystanie zaawansowanych technologii, pomogły biznesowi dostrzec poprawę produktywności w wielu obszarach.mówi Stanisław Drosio i dodajePraca na odległość była wyzwaniem w tych branżach, w których odsetek pracowników fizycznych niezbędnych do funkcjonowania jest największy. Logistyka czy produkcja nie mogą wysłać ludzi na home office, a na pewno nie wszystkich.zauważa Drosio.

    Słowa eksperta pokrywają się wynikami badania. Przedsiębiorstwa, w których większy odsetek pracowników wykonuje pracę fizyczną, rzadziej zgłaszały wzrost produktywności, niż miało to miejsce w przypadku przedstawicieli branży IT, marketingu oraz sprzedaży. Co druga firma (51%) z m.in. sektora produkcyjnego, logistycznego deklarowała, że zauważyła wzrost produktywności pracowników.

    – Sektory bardziej oparte na fizycznej obecności pracowników, ich współpracy w ramach organizacji siłą rzeczy nie mogły w znacznej mierze przejść na home office. Jednak dzięki wcześniejszym inwestycjom np. w systemy, roboty czy czujniki mogły ograniczyć liczbę pracowników do minimum i stosować zasady dystansu społecznego. Bez technologii byłoby to niemożliwe.wyjaśnia Michał Górecko z BPSC.

    Praca zdalna cieszy księgowego

    Z raportu “Przyszłość pracy: od zdalnej do hybrydowej” dowiadujemy się, że prawie co piąta firma (17%) przewiduje, że ogólny wzrost wydajności nie będzie chwilowy. Potrwa jeszcze przynajmniej dwa, najpewniej trzy lata.

    Przytłaczająca większość (88%) badanych przez Capgemini mówi jasno, że praca zdalna się opłaca. Dzięki telepracy w ciągu ostatnich trzech-czterech miesięcy biznes oszczędził na kosztach nieruchomości. Mało tego, aż a 92% spodziewa się, że w ciągu najbliższych dwóch do trzech lat znacząco zredukują wydatki na wynajem powierzchni biurowych.

    Spadek po pandemii

    Niemal 70% ankietowanych uważa, że wzrost wydajności, który obserwujemy, będzie trwały i utrzyma się po zakończeniu pandemii.

    – W dużym stopniu będzie to zależało od tego, jak szybko organizacje uczą się na błędach i zmieniają pod ich wpływem.zauważa Sławomir Kuźniak z BPSC.

    W katowickiej firmie już teraz mówi się o pozostawieniu na stałe wielu wypracowanych w tym roku rozwiązań. W podobnej sytuacji znalazło się prawie 30% badanych przez Capgemini firm, które do pracy zdalnej mogą oddelegować nawet 70% swoich pracowników, a przynajmniej dać im taką możliwość. Przed pandemią odsetek przedsiębiorstw gotowych na taki krok wynosił 10%.

    Okiem pracownika

    45% pracowników spodziewa się, że w erze pokoronawirusowej zdalnie pracować będzie trzy lub więcej dni w tygodniu. To pokazuje, że praca zmierza wprost do modelu hybrydowego.

    – Kierunek jest jasny – model pracy będzie elastyczny. To sprawi, że pracodawca będzie musiał zapewnić takie samo narzędzie do wykonywania obowiązków pracownikowi, jakie ten miałby dostępne stacjonarnie.uważa Michał Górecko, jego zdaniem wpłynie to na rozwój oprogramowania i usług mobilnych – W tym roku przekonaliśmy się, że praca nie opiera się na fizycznym stanowisku pracy. Spokojnie może je zastąpić środowisko wirtualne, a to zapewniają systemy IT i aplikacje mobilne. Najważniejszy jest dostęp do informacji.kończy Górecko.

  • Szybka i wydajna infrastruktura w firmie – konieczność, ale i wyzwanie

    Szybka i wydajna infrastruktura w firmie – konieczność, ale i wyzwanie

    Przewiduje się, że za pięć lat ilość danych zwiększy się 10-krotnie. Już dziś pandemia przyspiesza proces zbierania i wykorzystywania danych, a nakładają się na to także rosnące wymagania cyfrowej gospodarki, rozwój sztucznej inteligencji oraz Big Data. To wszystko sprawia, że firmy stanęły przed dużymi wyzwaniami w zakresie infrastruktury IT. Choć sama pandemia i konieczność pracy zdalnej wymusiła zmiany bardziej w zakresie łączności internetowej, narzędzi do komunikacji czy zdalnego dostępu, to obecne wyzwania łączą się także z potrzebą przechowywania i przetwarzania coraz większej ilości danych. Dla firm kluczowy jest bezpieczny i szybki dostęp do nich, a także skalowalność rozwiązań do ich przechowywania.

    – Pandemia i związana z nią praca zdalna z pewnością wymusza na firmach zmiany w infrastrukturze IT. Najważniejszymi kwestiami były jednak wprowadzenie zmian w systemach zdalnego dostępu, wzmocnienie bezpieczeństwa dostępu, zapewnienie płynności połączeń, szczególnie na spotkaniach online. Istotne jest także zapewnienie platformy do pracy grupowej na dokumentach dla całych zespołów czy działów podkreśla Andrzej Syta, presales manager w GoldenOre.

    Z badania przeprowadzonego na zlecenie Gumtree.pl wynika, że przed pandemią SARS-CoV-2 tylko 19 proc. pracowników w Polsce wykonywało swoją pracę głównie w trybie zdalnym, a 29 proc. miało taką możliwość przez kilka dni w miesiącu. Koronawirus zmienił te statystyki. W pierwszych tygodniach marca tysiące polskich pracowników i firm niemal z dnia na dzień musiało przejść w tryb pracy zdalnej. Pod koniec kwietnia ponad 3/4 pracowników umysłowych w Polsce pracowało w tym modelu. Z badania „Odmrażanie pracy” CIONET, Deloitte i VMware wynika z kolei, że blisko 90 proc. firm chce zwiększyć możliwość pracy spoza biura po ustaniu pandemii.

    – Popularność pracy zdalnej to dla firm całkiem korzystna sytuacja ze względu na zmniejszenie kosztów obsługi i wynajmu przestrzeni biurowej, dla pracowników to z kolei oszczędność czasu na dojazdach wskazuje Andrzej Syta. – Do utrzymania pracy zdalnej bardzo istotne jest połączenie internetowe. Nie możemy jednak zapominać o systemach do pracy rozproszonej, odpowiednich narzędziach do komunikacji dla pracowników czy do zarządzania środowiskiem klienta dla administratorów.

    – IBM Storage Insight to narzędzie do zarządzania zasobami dyskowymi – dzięki niemu możemy uzyskać lepsze wykorzystanie zasobów, zmniejszyć utylizację przechowywanych danych, mieć pełny monitoring na nowoczesnych dashboardach, a także szybciej reagować na problemy i potencjalne awarie. Storage Insight umożliwia zarządzanie rozwiązaniami różnych producentów. W czasie pracy zdalnej pozwala administratorowi np. na dostęp do jednego panelu sterowania i zarządzanie wszystkimi danymi organizacji z dowolnego miejsca – domu, hotelu czy kawiarni – dodaje Jakub Grzywacz, solution architect w GoldenOre.

    Oparte na chmurze IBM Storage Insights umożliwia zdalne monitorowanie pamięci masowej i powiadamianie o zdarzeniach wymagających uwagi. Pracownik z działu IT ma do dyspozycji panel kontrolny, by w odpowiednim czasie podejmować stosowne działania i przesyłać dane szybciej i wydajniej. Można tego dokonywać także zdalnie, co jest istotne zwłaszcza w czasie pandemii koronawirusa. Rozwiązanie w wersji Pro, które tymczasowo IBM udostępnia bezpłatnie wszystkim użytkownikom wersji podstawowej, opiera się na algorytmach sztucznej inteligencji i analizie predykcyjnej.

    Firmy coraz chętniej sięgają po rozwiązania z zakresu sztucznej inteligencji i Big Data. Według raportu Instytutu Badawczego Capgemini z lutego br. ponad 50 proc. największych światowych producentów w Europie wdraża co najmniej jedno rozwiązanie z obszaru sztucznej inteligencji. Wymaga ona jednak zbierania i przetwarzania ogromnej ilości danych, co z kolei wymusza na firmach także inwestycje w miejsce do ich przechowywania.

    – W bardziej skutecznym zarządzaniu danymi w firmie pomagają np. pamięci masowe IBM FlashSystem. Optymalizują infrastrukturę IT i zapewniają w prosty i bezpieczny sposób dostęp do potrzebnych danych w prywatnej chmurze lub środowisku wielochmurowym. Zastosowane w projektach związanych ze sztuczną inteligencją zapewniają wydajność, elastyczność i skalowalność mówi Jakub Grzywacz.

    Ilość danych rośnie w ogromnym tempie. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 zetabajtów w ubiegłym roku do 175 w 2025 roku. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.

    Większa ilość danych to wyzwanie dla firm, które muszą inwestować w dyski i serwery o coraz większej pojemności. Rozwiązaniem może być jednak także kompresja danych.

    – Rozwiązania IBM FlashSystem są skalowalne, co pozwala na przechowywanie większej ilości danych i dopasowanie ilości i rodzaju pamięci masowej w zależności od potrzeb. Przechowywanie większej ilości danych na mniejszej ilości sprzętu odbywa się z nawet pięciokrotną redukcją danych, szczególnie z wykorzystaniem modułów NVMe FCM oferujących kompresję bez wpływu na wydajność tłumaczy solution architect w GoldenOre. – Elastyczna i skalowalna platforma o wysokiej wydajności pozwala na łatwe, szybkie wdrożenie i dostosowanie infrastruktury IT naszych klientów do potrzeb zmieniającego się otoczenia – bez wielkich nakładów budżetowych.

    Rodzina pamięci masowych FlashSystem składa się z wielu modeli o różnych parametrach, które mogą być dopasowane do potrzeb zarówno małych, jak i dużych firm. W doborze najlepszych rozwiązań do istniejącej infrastruktury IT oraz strategii i budżetu firmy specjalizuje się GoldenOre.

  • Transformacja cyfrowa z grywalizacją w tle

    Transformacja cyfrowa z grywalizacją w tle

    Coraz częściej firmy decydują się na wdrożenie zasad grywalizacji, które pomagają im nie tylko zmotywować, czy też zwiększyć zaangażowanie pracowników, ale także umożliwiają lepsze poznanie nowo wprowadzonych rozwiązań. Transformacja cyfrowa jest momentem trudnym i wymagającym, a gamifikacja może pomóc oswoić się z nowymi zasadami.

    Zbieranie punktów, osiąganie kolejnych poziomów, tabele wyników i nagrody dla najlepszych – elementy znane z gier coraz częściej są stosowane w przedsiębiorstwach. Aby motywować, angażować i przyciągać bardziej, niż kiedykolwiek wcześniej. Wartość grywalizacji także coraz częściej doceniają firmy, które wprowadzają nowe rozwiązania i chcą zaprezentować, wdrożyć i przyzwyczaić pracowników do zmiany.

    Czy grywalizacja jest istotna dla projektu cyfrowej transformacji w przedsiębiorstwie? Jakie elementy należy wziąć pod uwagę decydując się na wprowadzenie gamifikacji do swojego zespołu?

    – Grywalizacja może być wykorzystywana w projektach, w których chcemy mocno zaangażować naszych pracowników i zwiększyć ich doświadczenie, co jest kluczowe zwłaszcza przy inicjatywach cyfrowej transformacji firm. W przyjemny sposób oswajamy zespół ze zmianami, które zwłaszcza na początku mogą wydawać się zbędne lub uciążliwemówi Aleksandra Domagała, Senior User Experience Consultant w Capgemini Polska.

    Gry, grywalizacja, grywalizować

    Choć pojęcie nie jest nowe, to właśnie w ostatnim czasie zyskuje ono na popularności w biznesie. Coraz więcej mówi się o grywalizacji, gdy dochodzi do analizy metody ulepszania cyfrowych doświadczeń, zwiększania współpracy lub angażowania i motywowania ludzi do udziału w inicjatywach, które są strategicznie ważne dla firm. Mówi się także, że grywalizacja jest metodą przełomową przy transformacji firmy. Dlaczego?

    Wdrażanie innowacji, nowoczesnych rozwiązań i transformacja cyfrowa staje się nieodłącznym elementem każdej firmy. Jest to konieczne, by biznes nie został wypchnięty z obiegu przez firmy, które dzięki narzędziom nowej generacji stają się bardziej wydajne, jeszcze bardziej opłacalne, efektywne i szybkie. Wraz z nowymi systemami, sprzętami, pojawiają się także nowe wyzwania, którym przedsiębiorstwo musi stawić czoła, by w pełni wykorzystać potencjał wprowadzonych innowacji.

    – Jednym z takich przełomowych rozwiązań oswajającym ze zmianą może być właśnie grywalizacja. Dlaczego? Warto tutaj podkreślić, że ugruntowany model zarządzania zmianą ADKAR składa się z czterech etapów: świadomości, chęci, umiejętności i wiedzy oraz z wzmocnienia. Elementy składające się na gamifikację mogą doskonale sprawdzić się w zakresie podnoszenia świadomości pracowników na temat zmian, które następują w organizacji. Taka forma „rozrywki” jest też doskonałą przestrzenią do przekazania solidnej dawki wiedzy w przystępny, wręcz niezauważalny sposób. Przetestowaliśmy to, przy okazji realizacji projektów o zróżnicowanym zakresie i technologii w przypadku wielu branż i różnych kultur organizacyjnychmówi Aleksandra Domagała. 

    Wraz z upływającym czasem coraz więcej przedsiębiorstw docenia wartość grywalizacji i odnajduje jej zastosowanie w różnorodnych wewnętrznych obszarach firmy, tym samym pomagając rozwijać kompetencje pracowników, wdrażać nowe nawyki, czy też usprawniając jej funkcjonowanie nagradzając pożądane zachowania.

    Aby projekt nie został zaprzepaszczony…

    – Choć grywalizacja zwykle wzbudza pozytywne emocje i przychylne nastawienie, to należy pamiętać, że aby projekt móc wdrożyć z powodzeniem i osiągnąć cel, należy starannie zaplanować działania początkowe i odpowiednio dobrać mechanizmy gry. Nieprzemyślane lub źle zaprojektowane działania mogą zniechęcić do podjęcia „zabawy” lub co gorsza przynieść efekt odwrotny do zamierzonegotłumaczy Aleksandra Domagała z Capgemini, rekomendując przejście czterech kroków organizacyjnych, które pomogą dobrze zaprojektować gamifikację w firmie:

    1. Określ główny cel – choć wskazanie celu może wydawać się truizmem, to warto to zrobić. Jasne określenie celu jest kluczowe dla osiągnięcia spodziewanego efektu. Na tym etapie może się też się, że wizja zleceniodawcy rozmija się z perspektywą wykonawcy, więc by uniknąć nieporozumień, generowania strat, warto jasno określić cel przedsięwzięcia na samym starcie prac.

    2. Zadbaj o spójność z kulturą organizacyjną – zmiany, które firma planuje wdrożyć za pośrednictwem grywalizacji, mogą pociągnąć ze sobą także zmianę dotychczasowej kultury organizacyjnej, zatem powodzenie tej inicjatywy może być zależne od odpowiedniego uwzględnienia aspektu kulturowego. Ten punkt zyskuje na znaczeniu w przypadku transformacji cyfrowej, gdyż wówczas zmiany nie dotyczą wyłącznie narzędzi, ale także ludzi.

    3. Zapewnij projektowi silne wsparcie – nawet dobrze zaplanowany projekt grywalizacji może zakończyć się fiaskiem, jeśli nie spotka się z odpowiednim wsparciem ze strony liderów, zaangażowanych osób decyzyjnych, ambasadorów. Charyzmatyczny przewodnik, który pomoże przejść przez proces transformacji i jednocześnie będzie popierał projekt grywalizacji może okazać się kluczem do sukcesu całego przedsięwzięcia.

    4. Wybierz dobry czas – jeśli w podobnym czasie będą prowadzone także inne istotne inicjatywy pracownicze, to uwaga kadry może rozstać rozproszona, przez co zainteresowanie projektem opartym na grywalizacji może być mniejsze, niż w czasie mniejszego wewnętrznego natężenia. Jeśli konkurencyjne inicjatywy to np. restrukturyzacja firmy lub istotne zmiany w kadrach, można się spodziewać, że będą one dla pracowników priorytetami, a proces transformacji cyfrowej stanie się uciążliwym dodatkiem. Wybór odpowiedniego momentu może skutkować sprawnym wdrożeniem nowych systemów, które w lekki i ciepły sposób zostanie przyjęty przez kadrę.

    Zachowując powyższe aspekty, firma może wdrożyć cyfrowe rozwiązania, które zostaną zapamiętane przez pracowników i jednocześnie pomogą osiągnąć wyznaczone cele.

  • Machine Learning i sztuczna inteligencja w cyberbezpieczeństwie – marketingowa mrzonka czy realny potencjał?

    Machine Learning i sztuczna inteligencja w cyberbezpieczeństwie – marketingowa mrzonka czy realny potencjał?

    Od zarania cyber-dziejów naukowcom towarzyszyło odwieczne marzenie nauczenia maszyn myślenia i podejmowania decyzji w sposób, w jaki robią to ludzie. Jednak uczenie maszynowe to nic innego jak zespół matematycznych technik, które pozwalają przetwarzać dane, odkrywać wzorce i wyciągać wnioski. Wszystko po to, aby adekwatnie przewidywać przyszłe zdarzenia – w tym cyberataki.

    Uczenie maszynowe oraz sztuczna inteligencja (AI – artificial intelligence) w jakimś stopniu wpłynęły na prawie każdą z branż – od produkcji, przez rolnictwo, po finanse. Jaki potencjał drzemie w tej technologii w kontekście bezpieczeństwa IT? Czy AI przekłada się na rzeczywisty wzrost cyberbezpieczeństwa? Odpowiedzi na te pytania poszukiwali autorzy raportu “Machine Learning i Cyberbezpieczeństwo”.

    W okresie od 2017 do 2023 ruch w Internecie zwiększy się aż trzykrotnie – tak wynika z raportu Reinventing Cybersecurity with Artificial Intelligence firmy Capgemini. 61% organizacji szacuje, że nie będzie w stanie we właściwy sposób interpretować krytycznych zdarzeń bez wsparcia ze strony AI. 73% ankietowanych w jakimś zakresie już testuje sztuczną inteligencję w kontekście cyberbezpieczeństwa. 28% korzysta z rozwiązań, które posiadają wbudowane moduły, a 30% z własnych wypracowanych algorytmów. Pozostałe 42% w ciągu kolejnych dwunastu miesięcy zacznie wykorzystywać gotowe rozwiązania lub własne algorytmy.

    Sztuczna inteligencja w biznesie, czyli jak zaimplementować AI w firmie?

    Raport Machine Learning i Cyberbezpieczeństwo przybliża pięć kroków do wdrożenia AI w firmie. Pierwszym zadaniem jest przygotowanie zbioru danych dobrej jakości, w oparciu o które będzie można testować modele uczenia maszynowego. Badania pokazują jednak, że dla blisko połowy firm jest to największe wyzwanie podczas implementacji AI. Problemy pojawiają się także w trakcie integracji rozwiązania z infrastrukturą IT, wykorzystywanymi systemami danych oraz aplikacjami. Kolejnym wyzwaniem jest płynna aktualizacja danych, w oparciu o które pracują algorytmy.

    Następnym krokiem jest dobór odpowiednich zbiorów use case. W tym zakresie warto rozważyć współpracę z zewnętrznymi platformami (np. Facebook Threat Exchange25 czy IBM X-Force Exchange26). Ważnym elementem wdrożenia AI jest również zatrudnienie odpowiednio wykwalifikowanych analityków.

    Ogromną barierą rozwoju sztucznej inteligencji jest brak specjalistów z wiedzą z zakresu uczenia maszynowego. Firmy mają w zasadzie do dyspozycji dwie drogi – szkolenie własnych pracowników lub skorzystanie z zewnętrznych zespołów. Ostatnim krokiem w procesie jest wprowadzenie mechanizmów kontroli – zdefiniowania roli oraz zakresu obowiązków czy wdrożenie odpowiednich procesów monitorujących i naprawczych.

    Machine Learning dla każdego? Czy małe firmy mogą sobie pozwolić na eksperymenty ze sztuczną inteligencją?

    – Wdrożenie w organizacji AI pochłania znacznie więcej zasobów – ludzi oraz nakładów finansowych – niż rozwiązania tradycyjne. Nie da się ukryć, że produkty oparte na frameworkach AI należą także do tych kosztowniejszych –  – mówi Karolina Dzierżyńska, redaktor Centrum Bezpieczeństwa w Xopero SoftwareDla małych i średnich firm mogą więc okazać się nieosiągalne. Mniejsze podmioty mogą jednak skorzystać z rozwiązań udostępnianych w modelu SECaaS (security-as-a-service).

    Wykorzystanie elementów sztucznej inteligencji w podstawowych produktach z branży cyberbezpieczeństwa, takich jak chociażby programy antywirusowe, powoduje więc, że są one dostępne dla każdego – małych firm, a nawet użytkowników domowych.

    Machine Learning a Cyberbezpieczeństwo

    Podstawowym celem Machine Learning jest analiza ogromnych zbiorów danych i automatyzacja jak największej liczby procesów. Coraz częściej sięga się po nią przy projektowaniu systemów bezpieczeństwa IT. Monitorowanie zachowań użytkowników w sieci, analiza parametrów z urządzeń sieciowych i logów użytkowników, analiza behawioralna czy wykorzystanie danych biometrycznych – to tylko kilka aspektów jej wykorzystania.

    System bezpieczeństwa oparty na machine learning musi więc ustalić czy każdy plik przesyłany firmową siecią nie zawiera malware, każda próba logowania nie jest wynikiem wykradzenia danych uwierzytelniających, a każdy mail nie jest wiadomością malspam. Ponadto zweryfikuje czy każde żądanie nie jest próbą ataku denial-of-service (DoS) albo próbą kontaktu z serwerami C&C.

    Sztuczna inteligencja może również zostać wykorzystana do detekcji anomalii czy analizy malware. Jak? Algorytmy uczenia maszynowego mogą dokonać dynamicznej analizy na podstawie podobieństw między dwoma lub więcej obiektami. Takie badanie omija błędy typowe dla dopasowań statycznych i uwzględnia np. rozwój malware w czasie.

    Druga strona medalu

    Należy pamiętać, że sztuczna inteligencja i uczenie maszynowe mogą zostać wykorzystane po drugiej stronie barykady i posłużyć przestępcom do przeprowadzenia ataków opartych o szczegółową analizę danych. Na szczęście, na razie nie są one powszechnie stosowane. Przestępcy wolą bowiem sprawdzone rozwiązania, które przyniosą im zyski szybko i tanio. Niewykluczone jednak, że wraz z upowszechnianiem się uczenia maszynowego i sztucznej inteligencji, wkrótce usłyszymy o spektakularnych atakach z ich wykorzystaniem.
    Raport Machine Learning i Cyberbezpieczeństwo – do pobrania bezpłatnie tutaj.

  • Prognoza dla bankowości – co zmieniła pandemia?

    Prognoza dla bankowości – co zmieniła pandemia?

    Eksperci wskazują, że aby utrzymać płynność finansową po kryzysie związanym z koronawirusem, banki będą musiały przeprowadzić zmiany w kluczowych obszarach. Przyspieszyć ma proces cyfryzacji i rozwój technologiczny, szczególnie w kwestii wykorzystania architektury mikroserwisów, sztucznej inteligencji i uczenia maszynowego. Zmianie ma ulec podejście do zarządzania aktywami, inwestycjami oraz polityki kredytowej. Banki mają też zwiększać konkurencyjność względem coraz bardziej innowacyjnych fintechów, challenger i neo banków.

    Choć pierwsza fala niepewności związanej z epidemią koronawirusa wydaje się być za nami, a kolejne obszary gospodarki rozpoczynają proces odmrażania wygląda na to, że dla wielu branż to nie koniec zmian, a zaledwie ich początek. Jednym z takich sektorów jest niewątpliwie bankowość, na kondycji której odbiły się niższe stopy procentowe, wakacje kredytowe oraz wszystkie inne ekonomiczne konsekwencje epidemii. Dziś, wobec prognoz ekonomistów wskazujących na możliwy spadek polskiego PKB o nawet 1%, banki stoją zatem przed wyzwaniem sporych zmian.

    – Aby utrzymać płynność finansową, sektor bankowy będzie musiał wprowadzić modyfikacje w kluczowych obszarach swojej działalności. Przede wszystkim w podejściu do zarządzania aktywami, inwestycjami czy ofertami dla klientów. Konieczny będzie także intensywny rozwój technologiczny branży finansowej, która zacznie wykorzystywać dorobek architektury mikroserwisów, uczenia maszynowego i sztucznej inteligencji. Pojawi się przestrzeń na to, aby tradycyjna bankowość mogła czerpać inspirację w obszarze innowacji od zaawansowanych technologicznie fintechów. Inaczej mówiąc, pandemia przyspieszy proces zmian, w kierunku których bankowość zmierzała od momentu wejścia w życie dyrektywy PSD2mówi Michał Mazur, senior business development manager z INCAT.

    Elastyczność i bezpieczeństwo stają się koniecznością

    Jak tłumaczy ekspert z INCAT, choć banki od pewnego czasu podążają ścieżką cyfryzacji, doświadczenia ostatnich miesięcy najprawdopodobniej mocno ten proces przyspieszą. Wraz z wybuchem pandemii organizacje stanęły bowiem przed wieloma wyzwaniami, takimi jak konieczność przeniesienia obsługi klienta do sieci, organizacji pracy zdalnej dla pracowników oddziałów czy poradzenia sobie ze wzrostem obciążeń bankowości elektronicznej i mobilnej. Dla wielu banków te nowe doświadczenia oznaczają konieczność dalszych modyfikacji określonych obszarów funkcjonowania dla poradzenia sobie z długoterminowymi kłopotami finansowymi. Choć czas na inwestycje w technologie wydaje się z tej perspektywy nie najlepszy, wygląda na to, że aby zachować konkurencyjność i klientów, banki będą zmuszone rozwinąć się technologicznie w stosunkowo niedługim czasie.

    Co więcej, ze względu na rosnącą w ostatnim czasie aktywność bankowości mobilnej i desktopowej, z której korzysta już ponad 14 milionów Polaków, ważne będzie wdrożenie jeszcze bardziej zaawansowanych zabezpieczeń, które uchronią klientów i same banki przed zagrożeniami niesionymi przez komunikację w sieci. Postępować więc będzie automatyzacja procesów, co może przynieść bankom dalekosiężne oszczędności, zwłaszcza w sytuacji gdy, po doświadczeniach pandemii, jeszcze więcej wątpliwości będzie wzbudzać zasadność utrzymywania tak wielu stacjonarnych placówek bankowych oraz stanowisk, na których obowiązki można stosunkowo łatwo przekazać maszynie. Ponadto, jak zwraca uwagę Michał Mazur, ze względu na szybko rosnące oczekiwania klientów i konieczność stałego poszerzania oferty, banki będą uzupełniać infrastrukturę systemów monolitycznych, które są typowe dla branży finansowej, o rozwiązania oparte na architekturze mikroserwisów, czyli wielu niezależnych od siebie modułów, realizujących określoną funkcjonalność w systemie. Tylko takie podejście umożliwi odpowiedni poziom dynamiki rozwoju innowacyjnych funkcjonalności.

    – Będzie to konieczne ponieważ, aby zachować konkurencyjność, kluczowa będzie szybka reakcja na to, czego oczekują klienci, a trudno to zrealizować w systemach monolitycznych, w których, w dużym uproszczeniu, zmiana jednej funkcjonalności pociąga za sobą konieczność dostosowywania całego systemu. Mikroserwisy, które charakteryzują się dużą skalowalnością oraz elastycznością, adresują ten problem i wydają się być jednym z właściwych kierunków rozwoju. Doświadczenia pandemii pokazały, że w skrajnych sytuacjach decydujący jest czas, świadomość technologiczna i umiejętność dostosowania się do okoliczności. Moim zdaniem to właśnie te czynniki, wspierane zaawansowaną technologią, zaważą na tym, które instytucje przetrwają i utrzymają status konkurencyjnych graczy na rynku tłumaczy ekspert.

    To przekonanie podzielają autorzy raportu “The impact of artificial intelligence in the banking sector & how AI is being used in 2020” (Business Insider), którzy wskazują na jeszcze jeden aspekt, mianowicie oszczędności. Według ich danych, łączne potencjalne oszczędności dla banków wynikające z implementacji aplikacji AI szacuje się na 447 miliardów dolarów do 2023 roku, z czego 416 miliardów dolarów przypada na front i middle office. Nic więc dziwnego, że aż 75% banków wskazuje w swojej strategii rozwoju na plany związane z implementacją warstwy AI. Strategie te, według wspomnianego raportu, bazują przede wszystkim na holistycznym podejściu, obejmującym AI zarówno w obszarze administrowania danymi, zarządzania zasobami ludzkimi, czy też, idąc o wiele dalej, w tworzeniu linii biznesowych instytucji finansowych.

    Na rosnące znaczenie elastyczności w branży bankowej wskazuje także Capgemini, w swoim raporcie World Retail Banking Report. Według ekspertów, nowoczesna bankowość będzie się wkrótce opierać na standardzie szybkiego wdrożenia, podejmowania ryzyka biznesowego oraz upraszczania i automatyzowania procesów wewnętrznych. Oparcie tych przemian na technologii mikroserwisów, wydaje się więc słusznym kierunkiem rozwoju.

    Zmiany napędzane nie tylko przez pandemię

    Podkreślmy, że zmiany w podejściu banków do innowacji rozpoczęły się jeszcze przed wybuchem pandemii. Za kluczowy uznaje się rok 2019 rok oraz wdrożenie unijnej dyrektywy PSD2 (Payment Services Directive 2), której celem jest bezpieczne wdrożenie idei regulowanego open bankingu. Dyrektywa dała możliwość korzystania z tzw. otwartej bankowości, inaczej mówiąc – kategorii usług płatniczych świadczonych przez zewnętrznych dostawców (Third Party Providers). Dyrektywa pozwoliła takim podmiotom na dostęp do rachunków użytkownika w różnych bankach, realizację płatności na zlecenie zewnętrznego dostawcy czy też weryfikację kwoty na rachunku przed realizacją usługi.

    Co kluczowe, realizacja założeń otwartej bankowości dała ogromne pole do rozwoju podmiotom spoza sektora bankowego, które oferują usługi finansowe, takim jak fintechy, challenger banki czy neo banki. Wdrożenie dyrektywy spowodowało, że tradycyjne banki stanęły więc przed konkurencją w postaci podmiotów pozabankowych, które nadal mają dużą szansę na zawłaszczenie sporej części tortu, jakim jest rynek usług finansowych. To wszystko sprawiło, że banki już w ubiegłym roku zaczęły dostrzegać konieczność zmian w zakresie oferty i obsługi klienta, tak aby dotrzymać kroku fintechom, które wręcz prześcigają się w oferowaniu innowacji.

    Poza tym otwarta bankowość zwiększyła konkurencyjność pomiędzy bankami. Pozwalając na pełną analizę nowego klienta w kontekście dostępnych danych, dyrektywa PSD2 z jednej strony ułatwiała personalizację oferty, ale z drugiej utrudniła utrzymanie lojalności klienta. Rosnąca transparentność banków i większa konkurencyjność wygenerowała więc nie tylko rozwój produktowy, ale także, a może przede wszystkim – technologiczny.

    Także specjaliści z Deloitte nie mają wątpliwości, że banki powinny rozpocząć swoją transformację technologiczną już teraz, jak wynika z raportu “Opening banking through architecture re-engineering”. Droga do nowoczesnej bankowości, choć stanowi wyzwanie, daje możliwość jeszcze szybszego wzrostu oraz tworzenia nowych modeli biznesowych. Ważne jednak, na co wskazuje Deloitte, by w całym procesie zmian nie zapominać o aktualnym środowisku technicznym i ograniczeniach związanych z funkcjonowaniem branży bankowej, takich jak wymagana zgodność z legislacją czy mocno oprocedurowany ekosystem finansowy. W związku z tym trudno mówić o rewolucji w bankowości, a raczej o tworzeniu podwalin pod dalszy rozwój technologiczny.

    – Wykorzystywanie sztucznej inteligencji czy uczenia maszynowego przyniosą w bankowości dużą oszczędność czasu i kosztów, a także wpłyną na cyberbezpieczeństwo, zwłaszcza w kontekście zapobiegania defraudacjom lub nadużyciom finansowym. Dla banków będzie to także szansa na skuteczniejsze przewidywanie ryzyka operacyjnego, dzięki jeszcze dokładniejszej analizie ogromnej ilości różnorodnych danych spływających z wielu kanałów podsumowuje Michał Mazur.

  • Jakie są szanse rozwoju sztucznej inteligencji na dużą skalę?

    Jakie są szanse rozwoju sztucznej inteligencji na dużą skalę?

    W dzisiejszych czasach w rozwiązania oparte na sztucznej inteligencji inwestuje się już miliardy dolarów. I nic w tym dziwnego, gdyż ta przełomowa technologia ma moc transformacji nie tylko biznesu, ale też wielu procesów gospodarczych i  otaczającej nas rzeczywistości. Coraz więcej firm z różnych sektorów wykracza poza rozwiązania pilotażowe. Na ile jednak są one skuteczne w zastosowaniach na szeroką skalę, zwłaszcza w świetle obecnej pandemii? Mówi o tym najnowszy raport Capgemini poświęcony badaniom potencjału sztucznej inteligencji na dzisiejszym rynku.

    Capgemini zanalizowało tempo wdrożenia sztucznej inteligencji przez przedsiębiorstwa w ciągu ostatnich trzech lat, badając blisko tysiąc organizacji, z co najmniej miliardem dolarów przychodu rocznie, wdrażających inicjatywy oparte na AI, a także przeprowadziło obszerne, pogłębione wywiady z kadrą kierowniczą. Co wynika z raportu „The AI-powered enterprise”?

    Wprowadzanie AI na dużą skalę wcale nie jest łatwe

    Mimo, że coraz więcej przedsiębiorstw wykracza poza projekty pilotażowe, bo 53% (36% w raporcie z 2017 r.), to zastosowania produkcyjne z AI na szeroką skalę zainicjowało do tej pory tylko 13% liderów, a kryzys związany z pandemią nie pomaga tym, którzy tego nie zrobili. Mimo wszystko, to jednak większość z tej niewielkiej grupy liderów kontynuuje postępy w swoich inicjatywach związanych z AI w tym samym tempie co przed pandemią, a niektórzy z nich zwiększyli nawet tempo wdrożeń. Stanowi to jednak wyraźny kontrast w stosunku do organizacji, które zmagały się z problemami, z których blisko połowa wycofała się z inwestycji, a 16% w ogóle zawiesiło wszystkie inicjatywy z AI ze względu na dużą niepewność biznesową związaną z pandemią.

    Spore korzyści dla liderów wdrożeń

    Organizacje wdrażające AI liczą na korzyści w zakresie generowania przychodów, redukcji ryzyka, lepszej współpracy z klientami i optymalizacji kosztów. Aż 97% liderów z branży IT dostrzegło wymierne korzyści z zastosowań AI, przy czym 79% z grupy liderów AI na dużą skalę odnotowuje ponad 25% wzrost sprzedaży tradycyjnych produktów i usług. Ponadto w przypadku 62% liderów odnotowano spadek liczby skarg klientów o co najmniej 25%, a w przypadku 71% odnotowano spadek zagrożeń związanych z bezpieczeństwem o co najmniej 25%.

    Najlepiej ze skalowaniem radzi sobie sektor nauk przyrodniczych i handel

    Jeśli chodzi o pięć najważniejszych sektorów, które przodują w rozwijaniu AI, organizacje z sektora nauk przyrodniczych i handlu detalicznego znacznie wyprzedzają inne, które stanowią odpowiednio 27% i 21% wśród liderów we wdrażaniu sztucznej inteligencji na szeroką skalę. Na kolejnych miejscach znajdują się sektor motoryzacyjny i produkty konsumenckie po 17%, a następnie telekomunikacja (14%). Zaledwie 38% organizacji zajmujących się naukami przyrodniczymi zawiesiło lub wycofało inwestycje z powodu pandemii, w porównaniu z sektorami ubezpieczeń (66%), bankowości (64%) i użyteczności publicznej (64%). Odzwierciedla to znaczenie e-zdrowia w dzisiejszym kontekście, gdzie wirtualni asystenci, aplikacje do śledzenia kontaktów i czaty rozwijają się w miarę jak organizacje, takie jak Światowa Organizacja Zdrowia, uruchamiają narzędzia oparte na sztucznej inteligencji w celu gromadzenia i dostarczania informacji podczas trwającej pandemii.

    Jaki jest skuteczny model działania?

    – Aby skutecznie skalować AI, wiodące organizacje koncentrują się na odpowiednich narzędziach, platformach technologicznych i zwinnych praktykach. Ustanawiają zrównoważone modele operacyjne, tworzą etyczne algorytmy AI oraz dbają o bogate zasoby talentów i partnerów do współpracy. Wreszcie, stale sprawdzają swoje modele AI pod kątem dokładności i ich wpływu na wzmocnienie wyników biznesowychmówi Beniamin Poznański, szef zespołu Projects & Consulting Eastern Europe w Capgemini.

    Zaufane, wysokiej jakości dane są niezbędne do skalowania AI

    Grupa liderów oceniła poprawę jakości danych jako wskaźnik numer jeden, który pomaga w osiągnięciu większych korzyści z ich systemów AI. Dobre zarządzanie danymi gwarantuje, że zespoły ds. AI mają odpowiednią jakość danych i zwiększa to też zaufanie do danych wśród kadry kierowniczej. Wdrożenie odpowiednich platform technologicznych, takich jak hybrydowa architektura chmury obliczeniowej i demokratyzacja dostępu do danych, służą jako podstawowe elementy konstrukcyjne do skalowania AI.

    Zatrudnianie dedykowanych informatyków to klucz do wspierania rozwoju AI

    Z badań przeprowadzonych przez Capgemini wynika, że 70% organizacji uważa, że brak w puli talentów na średnim i wyższym poziomie zaawansowania stanowi duże wyzwanie dla skalowania AI. Ponad połowa liderów (58%) mianowała kierownika ds. AI, który może zapewnić zespołom rozwojowym wizję, ustalić wytyczne dotyczące hierarchii przypadków użycia, etyki i bezpieczeństwa, jednocześnie równoważąc wykorzystanie platform i narzędzi do rozwoju AI.

    – Organizacje muszą również skoncentrować się na szerokiej gamie umiejętności w zakresie skalowania aplikacji AI, wykraczających poza czyste umiejętności techniczne, w tym na analitykach biznesowych i specjalistach ds. zarządzania zmianą. Jednak obecnie istnieje znaczna luka pomiędzy popytem a podażą w ważnych dziedzinach, takich jak uczenie maszynowe czy wizualizacja danych. Szkolenia i podnoszenie kwalifikacji mają zatem zasadnicze znaczenie dla zniwelowania tych braków i zapewnienia możliwości utrzymania potrzebnych umiejętności we własnym zakresiedodaje Beniamin Poznański.

    Etyczne interakcje z AI to budowanie satysfakcji i zaufania konsumentów

    Niezależnie od tego, jak bardzo konsumenci i przepisy prawne koncentrują się na etycznej sztucznej inteligencji, raport odkrył, że wiele organizacji nie zajmuje się aktywnie takimi kwestiami, jak potrzeba posiadania autoryzowanego zespołu ds. etyki. W raporcie stwierdzono, że mniej niż jedna trzecia zmagających się z tym problemem organizacji (29% w porównaniu z 90% liderów zajmujących się sztuczną inteligencją) przyznaje, że posiada szczegółową wiedzę na temat tego, w jaki sposób i dlaczego ich systemy sztucznej inteligencji przynoszą efekty. Jest to ważne dla kadry kierowniczej przedsiębiorstw, aby móc zaufać organizacyjnym systemom AI. Jednocześnie niemożliwe jest zbudowanie zaufania konsumentów, jeśli pracownicy zwracający się do klientów nie mają zaufania do modeli lub danych, z których korzystają organizacje.

    Nie tylko modernizacja, ale kompleksowe podejście zapewni sukces

    W świetle niedawnego kryzysu związanego z pandemią, podczas gdy organizacje analizują dane i sztuczną inteligencję w celu zapewnienia stabilności swoich działań, istnieje jeszcze większa potrzeba powiązania strategicznych celów biznesowych z wdrażaniem AI na skalę. Badania Capgemini podkreślają, że najbardziej udane wdrożenia łączą wysiłki na rzecz racjonalizacji i modernizacji procesów zarządzania danymi, koncentrując się na wprowadzaniu nowych, zwinnych narzędzi z ekosystemów partnerów, a także podejść takich jak DataOps i MLOps (machine learning ops), aby rozwijać i wdrażać rozwiązania z zakresu sztucznej inteligencji, budować dedykowane zespoły i stworzyć zrównoważony model operacyjny.

  • Pandemia koronawirusa napędza wdrażanie sztucznej inteligencji w obsłudze klienta

    Pandemia koronawirusa napędza wdrażanie sztucznej inteligencji w obsłudze klienta

    Już ponad połowa konsumentów podczas kontaktów z dostawcami usług i towarów wchodzi w interakcje ze sztuczną inteligencją. Wybuch pandemii koronawirusa znacznie przyspieszył prace nad wdrażaniem takich technologii w procesie obsługi klienta. – Wykorzystanie sztucznej inteligencji do obsługi klienta już z nami zostanie. Zmiany w zachowaniu konsumentów wymuszone przez kryzys stworzyły wyraźną okazję do skalowania wdrożeń SI –przekonują eksperci.

    Oczekiwania klientów ewoluowały do ​​tego stopnia, że oczekują już interakcji ze sztuczną inteligencją. Kiedy więc faktycznie napotkają SI w codziennym życiu, są bardzo mile zaskoczeni, a czasem zszokowani. To jasno pokazuje, że chatboty, przetwarzanie języka naturalnego i sztuczna inteligencja robią postępy i ewoluowały – wskazuje Kelly Anderson, dyrektor działu przetwarzania danych i sztucznej inteligencji w Procter & Gamble.

    Szczególne znaczenie w dobie pandemii SARS-CoV-2 zyskały rozwiązania wykorzystujące interfejsy bezdotykowe. Z badania Capgemini „Sztuka sztucznej inteligencji zorientowanej na klienta: jak organizacje mogą uwolnić pełny potencjał sztucznej inteligencji w obsłudze klienta” wynika, że 77 proc. klientów oczekuje zwiększenia dostępu do rozwiązań z zakresu SI, które wykorzystują asystentów głosowych czy rozpoznawanie twarzy.

    Choć oczekiwania klientów co do bezkontaktowej i bezdotykowej obsługi wynikają obecnie przede wszystkim z obawy przed zakażeniem koronawirusem, to ta sytuacja może wpłynąć na stałą zmianę zachowań konsumenckich. 66 proc. ankietowanych już dziś deklaruje, że po ustaniu pandemii nadal będzie z tych technologii korzystać.

    – Zastosowanie sztucznej inteligencji do obsługi klienta już z nami zostanie. COVID-19 był katalizatorem w dążeniu organizacji do jej wdrażania, a zmiany w zachowaniu konsumentów wymuszone przez kryzys stworzyły wyraźną okazję do skalowania wdrożeń SI – twierdzi Darshan Shankavaram, szef globalnej obsługi cyfrowego klienta w Capgemini.

    Dzięki chatbotom obsługującym klientów firmy uzyskały znaczące wsparcie w opiece nad konsumentami, a wdrażanie takich rozwiązań nie jest już bardzo długotrwałym procesem. Najczęściej zajmuje zaledwie kilka dni. Chatboty wykorzystujące możliwości SI mogą być ponadto zintegrowane z systemami, na których pracują firmy zewnętrzne, co jeszcze bardziej usprawnia proces obsługi.

    – Ważne jest, aby firmy skupiały się na korzystaniu ze sztucznej inteligencji, aby tworzyć lepsze interakcje z klientem, zamiast używać jej po prostu do zajmowania się wolumenem i szybkością obsługi lub jako sztuczki. Oznacza to dalsze inwestowanie w technologię SI jak najbardziej podobnej do człowieka i stosowanie bardziej wyrafinowanych wskaźników KPI. Tego typu zmiany zwiększą satysfakcję klientów i ich otwartość na korzystanie ze sztucznej inteligencji w całym procesie customer journey przekonuje Darshan Shankavaram.

    Z danych boost.ai wynika, że rynek rozwiązań z zakresu konwersacyjnej sztucznej inteligencji do 2024 roku osiągnie wartość 15,7 mld dol. Jak zaznaczają autorzy raportu, branża ta nie odczuje żadnych skutków związanych ze spowolnieniem gospodarczym.

  • Technologie pomagają w rozwoju firm ubezpieczeniowych

    Technologie pomagają w rozwoju firm ubezpieczeniowych

    Nowe oczekiwania i potrzeby klientów oraz rosnąca konkurencja na rynku ubezpieczeń przyczyniają się do wzrostu zainteresowania firm ubezpieczeniowych innowacjami technologicznymi. Dzięki nim możliwa jest personalizacja obsługi klienta oraz komunikacja z wykorzystaniem wielu różnorodnych kanałów, które podnoszą satysfakcję z usług, tzw. model omnichannel.

    Tradycyjne firmy ubezpieczeniowe przekształcają się w nowoczesne organizacje technologiczne, dlatego coraz częściej firmy te nazywane są InsurTechami. Insurtech to połączenie słów „ubezpieczenie” i „technologia” inspirowane terminem FinTech. InsurTechy działają w oparciu o innowacje technologiczne zaprojektowane w celu zwiększenia wydajności obecnego modelu ubezpieczenia. Analiza danych oparta na big data oraz sztuczna inteligencja przyczyniają się do zwiększenia konkurencyjności firmy. Przyszłość rynku ubezpieczeń opiera się na pełnej digitalizacji obsługi klienta, tworzeniu pozytywnego customer experience poprzez personalizację, dostępność i mobilność.

    Z dokumentu World InsureTech Report[i] 2019 przygotowanego przez firmę konsultingową Capgemini i Europejskie Stowarzyszenie Zarządzania Finansami (EFMA) wynika, że sukces firm ubezpieczeniowych zależy w dużej mierze od ich nastawienia do innowacji. Mniej niż 20% ubezpieczycieli ankietowanych w ramach raportu zadeklarowało wdrożenie pełnej infrastruktury front-end i back-end do przechwytywania danych w czasie rzeczywistym, a mniej niż 40% stwierdziło, że korzysta z zaawansowanych analiz opartych na big data. W przeciwieństwie do zamkniętych systemów używanych przez większość firm ubezpieczeniowych, InsurTechy budują platformy w oparciu o zasady otwartego systemu, które umożliwiają współpracę oraz integrację.

    Firma technologiczna Liferay, która zajmuje się rozwiązaniami IT dla firm z sektora ubezpieczeń radzi, jak nie pozostać w tyle za konkurencją:

    Portal klienta

    Punktem wyjścia jest zmiana podejścia ze skoncentrowanego na produkcie do skoncentrowanego na zadowoleniu klienta. Jak wykazał wspomniany Raport, 70% firm ubezpieczeniowych oraz InsurTech stwierdziło, że skupienie się na rozwiązaniach z zakresu zarządzania ryzykiem klientów miało kluczowe znaczenie dla rozwoju biznesu. W związku z tym platforma internetowa powinna dostarczać spersonalizowane i wielokanałowe doświadczenia cyfrowe, które ułatwiają klientom samodzielne zarządzanie i odnawianie polis.

    Dane jako kluczowe narzędzie

    Ponad 70% firm ubezpieczeniowych oraz InsurTech stwierdziło, że zaawansowane możliwości zarządzania danymi są dla nich kluczowe. Rozwiązania technologiczne Liferay umożliwiają tworzenie spersonalizowanych ofert dla klientów opartych o big data.

    Cyfrowe miejsce pracy

    Nowoczesne platformy pomagają firmom działać wydajniej i lepiej zaspokajają zmieniające się potrzeby pracowników. Ujednolicony Intranet umożliwia agentom i brokerom sprawną współpracę opartą na szybkiej wymianie informacji.

    Platforma integracyjna

    90% firm InsurTech i 70% firm ubezpieczeniowych stwierdziło, że w kręgu ich zainteresowań leży nawiązywanie współpracy z innymi sektorami, np. z branżą turystyczną, transportową i hotelarską. Dlatego nowe platformy internetowe powinny umożliwić łatwą integrację z różnymi systemami opartymi na najnowszych, ale także i nieco starszych technologiach.

    [i] https://www.capgemini.com/pl-pl/news/world-insurtech-report-2019/
  • Sony TEOS pomaga firmie Capgemini stworzyć efektywne miejsce pracy

    Sony TEOS pomaga firmie Capgemini stworzyć efektywne miejsce pracy

    Firma Capgemini jest światowym liderem w dziedzinie konsultingu, usług technologicznych i transformacji cyfrowej. Ma 50-letnie tradycje, a dziś jej wielokulturowy zespół liczy ponad 200 000 osób pracujących w 40 krajach na całym świecie.

    W lipcu 2019 r. firma Capgemini oddała do użytku pracowników z regionu Île-de-France supernowoczesny biurowiec, powstały w miejscowości Issy-les-Moulineaux pod Paryżem. Ośmiokondygnacyjny budynek ma łącznie 33 250 m² powierzchni. 3500 pracowników może korzystać z 57 sal spotkań, 5 „pokoi zen”, siłowni i strefy dla graczy. Nowe miejsce pracy ma sprzyjać dobremu samopoczuciu, współpracy i kreatywności. Podstawowym założeniem było też zrównoważenie ekologiczne. Obiekt posiada trzy certyfikaty HQE (High Quality Environmental standard), w nowatorski sposób wykorzystano w nim także energię geotermalną.

    Firma Capgemini stawia na kreatywność i zrównoważony rozwój, poszukiwano więc systemu digital signage i rozwiązania do zarządzania miejscem pracy, które zwiększałyby energooszczędność nowego biura, pozwalałyby lepiej gospodarować czasem i tworzyłyby pracownikom nowe możliwości współpracy.

    Kontynuacja owocnej współpracy

    Firma Capgemini już wcześniej powierzyła Sony optymalizację zarządzania pomieszczeniami i systemem signage w swoich biurach w Mediolanie, Nantes i Lille, a w 2016 r. także w kampusie w Chantilly pod Paryżem. W tym unikatowym kampusie znajduje się 60 sal spotkań, audytorium dla 450 osób oraz 300 pokoi. Całość jest otoczona parkiem o powierzchni 21 hektarów.

    Firma Sony dostarczyła kompleksowe rozwiązanie do zarządzania oparte na pakiecie narzędzi TEOS. Pozwala ono z łatwością korzystać ze wszystkich pomieszczeń oraz w prosty sposób zarządzać licznymi cyfrowymi materiałami signage. W rezultacie obsługa systemów AV firmy Capgemini wymaga teraz mniejszego nakładu czasu. Z kolei na gościach firmy duże wrażenie robi profesjonalne wzornictwo zainstalowanego sprzętu.

    Po tym udanym wdrożeniu firma Capgemini chętnie skontaktowała się w Sony w sprawie nowego biura.

    Dzięki ścisłej współpracy między firmami Capgemini i Sony powstało rozwiązanie, które usprawnia zarządzanie systemem signage i zmniejsza nakład czasu na jego utrzymanie, a zarazem daje gościom kampusu poczucie prostoty i elegancji — mówi menedżer ds. infrastruktury w Capgemini. — Przystępując do prac nad nowym biurem, byliśmy przekonani, że firma Sony ponownie zdoła stworzyć rozwiązanie dostosowane do naszych specyficznych potrzeb

    Duży potencjał i zrównoważenie ekologiczne

    Firma Sony we współpracy z instalatorem systemów Alliance Project wdrożyła pakiet narzędzi TEOS do zarządzania miejscem pracy i dostarczyła ponad 300 monitorów profesjonalnych 4K BRAVIA. W rezultacie powstało kompleksowe rozwiązanie ułatwiające współpracę w miejscu pracy, w którym pierwszoplanową rolę odgrywa obecnie technologia.

    Aby spełnić rygorystyczne wymagania Capgemini dotyczące zrównoważenia ekologicznego i zagwarantować, że nowe miejsce pracy będzie przyjazne dla środowiska, trzeba było zapewnić ścisłą kontrolę nad poborem energii przez monitory i ograniczyć wykorzystanie papieru. O wyborze monitorów profesjonalnych Sony BRAVIA zadecydowała duża jasność i atrakcyjny wygląd obrazu, łatwość łączenia i najlepsze w tej klasie sprzętu poziomy zużycia energii.

    Zaawansowane funkcje analityczne systemu TEOS Manage, prezentujące wyniki w formie „pulpitu kontrolnego”, dają kierownikom działów AV i IT w Capgemini szczegółowy wgląd w wykorzystanie urządzeń i umożliwiają dalsze obniżenie zużycia energii. Z kolei narzędzia digital signage w systemie TEOS pozwalają w prosty sposób tworzyć, dostosowywać i zdalnie rozpowszechniać w biurze bogate i atrakcyjne treści.

    Pracownicy i goście w salach spotkań mogą bezprzewodowo prezentować obraz ze swoich laptopów na monitorach BRAVIA, przy użyciu rozwiązania TEOS Connect. Działa ono bez dodatkowego sprzętu, eliminuje plątaninę kabli i zapobiega marnowaniu czasu na poszukiwanie odpowiednich ustawień, pozwalając zarazem na równoczesne prezentowanie materiałów czterem uczestnikom. Rezultat to bardziej efektywna współpraca zespołów roboczych i mniejszy poziom stresu. Dodatkowo TEOS Connect, będące prostym i niezawodnym rozwiązaniem umożliwiającym ścisłą współpracę, znacznie zmniejszyło ilość wydruków przekazywanych podczas spotkań.

    Długotrwałe związki

    Rozwiązanie Sony w nowo otwartym biurze spotkało się z pozytywnym przyjęciem.

    Pakiet narzędzi TEOS i czołowe monitory Sony pozwalają zaoszczędzić czas naszym zespołom, a w skali całego biura zmniejszają zużycie energii i marnotrawstwo papieru. Nowe biuro Capgemini od początku było pomyślane jako miejsce łączące dobre samopoczucie, współpracę i zrównoważenie ekologiczne. Firma Sony natychmiast to zrozumiała i potrafiła stworzyć rozwiązanie, które umożliwiało zachowanie i rozwijanie tych nadrzędnych wartości, a przy tym ściśle spełniało nasze potrzeby.

    Biorąc pod uwagę przyszłościowy charakter rozwiązania, w nadchodzących miesiącach firmy Capgemini i Sony będą dodawać i aktywować nowe funkcje. Planowana jest także współpraca przy instalowaniu rozwiązań TEOS w kolejnych biurach na całym świecie.

  • Nowe funkcje TEOS Manage

    Nowe funkcje TEOS Manage

    Dział Sony Professional Solutions Europe ogłosił wprowadzenie systemu TEOS Manage 2.1: zmodernizowanego rozwiązania do zarządzania miejscem pracy, które kompleksowo zapewnia pełniejszą kontrolę nad urządzaniami, systemami signage i treściami. To rozwojowe, skalowalne i łatwe w użyciu rozwiązanie jest flagowym produktem Sony do zarządzania obiektami biurowymi i oświatowymi, od recepcji po sale spotkań.

    W systemie TEOS Manage 2.1 pojawiło się wiele nowych możliwości i funkcji, takich jak prezentacja treści ułatwiających pracownikom orientację przestrzenną za pomocą interaktywnych wyświetlaczy, obsługa ścian wideo złożonych z wielu monitorów, w tym BRAVIA, czy lepsza obsługa rozwiązań IPTV. W najnowszej wersji wprowadzono też aktualizacje wcześniejszych rozwiązań wspomagających tworzenie miejsc efektywnej pracy: TEOS Signage, TEOS Book i TEOS Survey.

    Nowoczesne podmioty potrzebują zdolności do podejmowania trafnych, strategicznych decyzji, które nie tylko zwiększą produktywność, ale i uwolnią rzeczywisty potencjał miejsca pracy i pracowników — wyjaśnia Thomas Issa, menedżer w dziale Corporate and Education Solutions w Sony Professional Solutions Europe. — System TEOS powstał, by ułatwić firmom osiągnięcie obu tych celów. Pomaga maksymalnie wykorzystać posiadane urządzenia i treści, jest też źródłem cennych danych o wrażeniach w miejscu pracy. Dzięki TEOS można więc lepiej zarządzać środowiskiem pracy: optymalizować wykorzystanie przestrzeni, zmniejszać koszty i podnosić wydajność.

    W systemie TEOS Manage 2.1 pojawiły się następujące funkcje i elementy:

    ●       TEOS Wayfinding — treści do orientacji przestrzennej to nowy składnik systemu przeznaczony do wykorzystania na monitorach profesjonalnych BRAVIA i tabletach z ekranami dotykowymi. Ułatwia on odnajdywanie drogi i pozwala w prosty sposób rezerwować pomieszczenia oraz uzyskiwać takie informacje, jak plany pięter czy lokalizacja hotspotów i stref bezpiecznych. Funkcja mapy piętra będzie uwzględniała także stanowiska pracy o niestałej lokalizacji. Ułatwi to użytkownikom poruszanie się po biurze.

    ●       TEOS TV — ta funkcja pozwala uruchomić w miejscu pracy system telewizji biurowej oraz w prosty sposób tworzyć kanały IPTV i nimi zarządzać. Jest włączona bezpośrednio do systemu TEOS Manage. Umożliwia utrwalanie spotkań, prezentacji i ważnych wiadomości oraz ich późniejsze wyświetlanie we wszystkich biurach z jednego, centralnego systemu.

    ●       TEOS Videowall — użytkownicy mogą z łatwością rozdzielać i dopasowywać treści do wyświetlenia na ścianach wideo w dowolnej konfiguracji opartej na monitorach profesjonalnych BRAVIA z platformą Android lub odtwarzaczach do systemu TEOS.

    Wprowadzono także szereg unowocześnień:

    ●       TEOS Book — obsługa dodatkowych rozwiązań RFID oraz rozszerzenie zgodności z OATH i zarządzanie spotkaniami prywatnymi w systemach Office 365 / Microsoft Exchange.

    ●     TEOS Connect — integracja z systemem TEOS Manage umożliwiająca zaawansowane zdalne konfigurowanie, dostosowywanie i unowocześnione zarządzanie.

    ●       TEOS Manage — zwiększenie wygody użycia dzięki obsłudze pojedynczego logowania.

    ●       Obsługa nowych urządzeń — system jest obecnie zgodny z urządzeniami do wideokonferencji (Cisco). Pozwala zdalnie nimi sterować i zarządzać.

    ●       Nowy język — system TEOS jest teraz dostępny w japońskiej wersji językowej (ogółem 12 języków).

    Rodzina wzajemnie współpracujących rozwiązań TEOS usprawnia wykorzystanie miejsca pracy: optymalizuje zarządzanie urządzeniami, obniża wydatki na energię i zwiększa wydajność. Pełny pakiet rozwiązań Sony do zarządzania miejscami pracy odegrał już fundamentalną rolę w procesach cyfrowej transformacji ponad 200 podmiotów z Europy, od portugalskiego oddziału firmy Siemens po kampus firmy Capgemini we Francji. Poza projektorami biurowymi i monitorami profesjonalnymi BRAVIA system TEOS 2.1 pozwala firmie Sony oferować najszerszy wachlarz produktów i rozwiązań przeznaczonych dla biur i oświaty.

    System TEOS 2.1 będzie dostępny w regionie EMEA od 10 grudnia.

  • OVH świętuje dwudzieste urodziny, przyspiesza rozwój chmury i zmienia nazwę na OVHcloud

    OVH świętuje dwudzieste urodziny, przyspiesza rozwój chmury i zmienia nazwę na OVHcloud

    W czwartek, 10 października br., startuje 7. edycja OVHcloud Summit. W rokrocznej konferencji w Paryżu wezmą udział wszyscy uczestnicy współtworzący ekosystem OVHcloud. Blisko 10 tys. osób  zgromadzonych w Paris Expo lub śledzących transmisję live z wydarzenia, wysłucha przemówienia otwierającego Summit wygłoszonego przez prezesa i założyciela OVHcloud Octave’a Klabę oraz Michela Paulin – dyrektora generalnego.

    Dwudziestolecie firmy OVHcloud, oferującej alternatywną chmurę na rynku europejskim, zbiega się z wkroczeniem w nowy etap rozwoju – OVHcloud osiągnęła pełną gotowość do międzynarodowego wzrostu i innowacji. Spółka koncentruje się na rozwiązaniach chmurowych i aktywnie włącza w powstanie europejskiego ekosystemu zaufanych rozwiązań.

    Nowy etap – nowa nazwa

    Jubileusz dwudziestolecia OVH to okazja do umocnienia pozycji firmy jako dostawcy usług chmurowych, które stanowią 70 proc. jej przychodów. Grupa przyjmuje nazwę OVHcloud, co odzwierciedla jej strategię rozwoju biznesu i ekspansji międzynarodowej.

    Firma OVH pojawiła się na rynku 20 lat temu wraz z początkiem wirtualizacji usług (PaaS, IaaS, SaaS, itp.). Dzisiaj w odniesieniu do tych usług używamy określenia „chmura”. Chcemy, aby nasza marka odzwierciedlała to, co robimy – wyjaśnia Michel Paulin, dyrektor generalny OVHcloud.

    Strategia SMART wciąż na pierwszym miejscu

    Choć OVH zmienia nazwę, to jej wartości pozostają niezmienne: otwartość i budowa ekosystemu gwarantującego ochronę danych. OVHcloud w dalszym ciągu propaguje swoją wizję chmury SMART:  Simple, Multi-local, Accessible, Reversible and Transparent. Czyli chmury prostej, multilokalnej, dostępnej, odwracalnej i transparentnej. W odpowiedzi na wyzwania stawiane przez ustawę CLOUD Act, OVHcloud oferuje niezawodne i zgodne z europejskimi wartościami rozwiązania. Dzięki nim tworzy otwartą i odwracalną chmurę umożliwiającą klientom swobodny wybór sposobu zarządzania danymi i realizację celów biznesowych.

    Nieustanne innowacje i konsekwentna realizacja planu SMART

    OVHcloud konsekwentnie realizuje przyjętą strategię we wszystkich swoich czterech obszarach działania. Oferuje klientom rozwiązania dopasowane do ich potrzeb, z uwzględnieniem sposobów korzystania przez nich z portfolio produktów i usług.

    Rozwiązania Enterprise – wsparcie specjalistów IT w procesie transformacji cyfrowej przedsiębiorstw

    Produkty i rozwiązania Enterprise oferują pełne bezpieczeństwo projektów podczas procesu transformacji cyfrowej dzięki transparentnej, odwracalnej, przewidywalnej i „multilokalnej” chmurze. W tym roku oferta serwerów bare metal zostanie wzbogacona o dedykowane klastry serwerów o gwarantowanej wydajności połączone w sieci prywatnej. Standardowe API umożliwią automatyzację procesów. Wkrótce firma zaktualizuje gamę serwerów dedykowanych HG, instalując w nich procesory najnowszej generacji Intel® Cascade Lake™ lub AMD EPYC™ 2nd generation gwarantujące wydajność i niezawodność. Grupa realizuje również swoją globalną strategię certyfikacji i rozpoczęła proces kwalifikacji SecNumCloud.

    Otwarte i standardowe środowisko Public Cloud dla inżynierów DevOps, którzy potrzebują rozwiązań do rozwoju skalowalnych aplikacji w chmurze

    Dzięki gamie produktów Public Cloud można szybko uruchamiać projekty, korzystając z zasobów na żądanie i dopasowując ich zużycie do rzeczywistych potrzeb. Zgodnie ze swoją filozofią, OVHcloud stosuje otwarte i interoperacyjne standardy: Rozwiązania Public Cloud Storage są od teraz dostępne przy użyciu API S3, natomiast usługi Public Cloud staną się kompatybilne z narzędziami RefStack.

    Oferta dla specjalistów ds. infrastruktury, sprzętu i sieci, którzy chcą budować platformy cloud w oparciu o rozwiązania serwerowe

    Rozwiązania serwerowe pozwalają administratorom systemów budować wydajną infrastrukturę w najbardziej przystępnej cenie. W tym roku OVHcloud całkowicie zmodyfikowała swoją ofertę serwerów dedykowanych, stawiając na pierwszym miejscu prostotę i uniwersalność rozwiązań. OVHcloud wprowadziła ostatnio na rynek nową gamę serwerów dedykowanych Infrastructure, która umożliwia tworzenie architektury klastrowej lub zarządzanie rozproszonymi bazami danych. Oferta skierowana jest do firm średniej wielkości, instytucji administracji publicznej lub uczelni potrzebujących skalowalnych i wydajnych rozwiązań. Wszystkie serwery z gamy Infrastructure wyposażone są w najnowszą technologię OVHcloud Link Aggregation (OLA), która służy do agregacji interfejsów sieciowych serwerów. Dzięki temu zwiększa się dostępność serwerów, a jednocześnie każdy z nich jest odizolowany od sieci publicznej i chroniony przed ewentualnymi zagrożeniami. Ponadto niektóre serwery z gamy Infrastructure, dzięki zastosowaniu technologii Intel® Software Guard Extensions (SGX), posiadają zaawansowane funkcje bezpieczeństwa umożliwiające całkowite odizolowanie kodów i przetwarzanych danych. OVHcloud wprowadzi na początku 2020 roku nową gamę serwerów VPS – od modelu STARTER do ELITE. Są to modele oferujące proste skalowanie, automatyczne tworzenie kopii zapasowych i SLA na poziomie 99,9 proc.

    Większa widoczność i lepsza komunikacja dla biznesu dzięki rozwiązaniom Market

    Rozwiązania Market wspierają ewolucję cyfrowych twórców i małych firm. Oferta hostingu Cloud Web zostanie w tym roku wzbogacona o nowe konfiguracje otwierające pole do nowych zastosowań. Dodatkowe zasoby przyspieszą rozwój witryn lub aplikacji internetowych.

    OVHcloud, jako dostawca rozwiązań Infrastructure as a Service (IaaS), współpracuje z doświadczonymi partnerami wdrażającymi i utrzymującymi usługi świadczone na rzecz ich własnych klientów. Aby jeszcze skuteczniej wspierać cyfrową transformację firm, OVHcloud zmodyfikowała program partnerski OVHcloud Partner Program i położyła akcent na współpracę międzynarodową. Do programu należą już firmy Thales, Capgemini i Deloitte.