PECHOWA DWUNASTKA: Brak zasobów

Czwarty czynnik wspierający błędy ludzkie, w ramach Pechowej Dwunastki to brak zasobów. Wygląda całkiem trywialnie i praktycznie daje się zamknąć w prostym stwierdzeniu: „Z pustego to i Salomon nie naleje”. Czyżby?

Brak zasobów, postrzegany najczęściej jako forma ograniczenia zaplanowanego działania, stosuje się do tej samej zasady co ograniczenia, w ogóle. Nasze życiowe doświadczenia podsuwają wiele przykładów, gdzie brak świadomości, że coś nie można, lub że się nie da, nie przeszkodziło faktycznie wykonać zaplanowany zamiar. Na drugim końcu tego problematycznego kija stoi motywacja wraz z jej siłą do działania wbrew rozsądkowi i przesłankom. I tak, prosty w zasadzie problem braku zasobów, który powinien doprowadzić do żądania ich uzupełnienia i oczekiwania na możliwość działania zgodnie z zasadami wprowadza na scenę kreatywność oraz iluzję potencjału, czy to z powodu braku świadomości czy olbrzymiej motywacji.

Przykłady znamy wszyscy:

  1. Brak czasu, wpływający na jakość wykonanej pracy, nasze zmęczenie i generujący szkodliwy stres,
  2. Brak materiałów, wpływający znowu na jakość pracy i narażający nas na odpowiedzialność za prowizorki,
  3. Brak reguł lub ich przekraczanie, które zagraża wartością jakie cenimy, w tym prywatności czy zdrowiu,
  4. Brak siły roboczej, wpływający na wszystkie wcześniej wymienione.

W świecie cyber, praktycznie każde zagrożenie jakie znamy związane jest z brakiem zasobów i przekraczaniem obowiązujących standardów w imię kreatywności rozwiązań wynikających z tego braku. Są to:

  1. Phishing – temat rzeka, ofiara wyobraża siebie czerpiącą korzyści z czegoś co jest ograniczone czasowo lub dostępnością, jak ekskluzywne treści, przeceny, zyski… dobrze dobrana przynęta jest wysoce skuteczna. Innym przykładem jest brak jasno określonych zasad i ich łamania, przez co przekraczanie ustalonych zabezpieczeń powinno zawsze zostać wykryte i odrzucone, a jednak BEC, czyli „oszustwo na prezesa” przyniosło w tym roku dwukrotnie więcej strat finansowych niż w roku 2018 zgodnie z raportem FBI zamykając się w kwocie około 1,3 miliarda dolarów (https://www.zdnet.com/article/fbi-us-companies-lost-1-3-billion-in-2018-due-to-bec-scams/) .
  2. Podatności w oprogramowaniu – słabości kodu, wynikające ze sztywnych ram czasowych, presji na zespołach deweloperów oraz krótkim lub prawie zerowym czasie poświęconym testom bezpieczeństwa tworzonego kodu jest głównym źródłem problemu „podatności dnia zero” czyli błędów występujących w kodzie, którego właściciele właśnie dowiedzieli się o ich istnieniu. Niestety proces naprawy błędów, jest zarówno kosztowny, zajmujący więcej czasu niż ich testowanie, jest również (właśnie z uwagi na presję czasu) przyczyną powstawania nowych błędów, które również będą kiedyś klasy „zero”. Tak prosta mechanika wydaje się absurdalnie irracjonalna, jednak stanowi tło praktycznie każdego procesu rozwoju oprogramowania od małych firm po wielkie korporacje. Często przyczyną nie jest nawet kod, który został napisany przez pracowników firmy, ale sposób w jaki został użyty kod open-source. Statystyki są mocno niepokojące, wskazują, że około 60% kodu ma podatności w komponentach zewnętrznych. Dodatkowo warto pamiętać, że znajomość podatności w jednym publicznym komponencie pozwala atakować wiele celów używających tego komponentu, co zmniejsza koszt ataku i zwiększa jego popularność (https://www.cyberscoop.com/bootstrap-sass-infected-snyk-rubygems/).
  3. Brak aktualizacji infrastruktury – podatności typu dnia zerowego są problemem samym w sobie, jednak najbardziej przerażający jest brak zamykania podatności istniejącymi łatami. Oczywiście wymówek jest tyle ile przypadków włamań. Od braku zasobów ludzkich, braku zdefiniowanych przerw serwisowych i planowanych włączeń usługi, przez brak wsparcia producenta dla przestarzałego produktu (ktoś przegapił cykl życia technologii), brak procedur testowych, czy choćby bardziej podstawowy – brak środowiska testowego, gdzie można określić wpływ poprawki na środowisko. Praca na infrastrukturze produkcyjnej w warunkach mocno ograniczonego czasu, czy wręcz incydentu, prowadzi do sprzężenia z czynnikiem stresu i prowadzi do powstania kolejnych błędów.
  4. Brak „zapasu” – zarówno począwszy od zasobów eksploatowanych „pod dach”, jak i planów naprawczych, gdzie procedury BCP/DR przechodzą testy dla elementów infrastruktury, nigdy jednak nie były testowane, czy nawet skalowane na większe awarie, dotyczące choćby i 50% całej infrastruktury. W tym segmencie znajdujemy również kopie zapasowe, których brak testów z uwagi na nieistniejące środowisko zapasowe wprowadza czynnik niepewności przy procedurach odtworzenia. Niestety w wielu przypadkach dotyczy to również strategii archiwum danych, gdzie z uwagi na ograniczenia budżetu, brak monitorowania cyklu życia technologii często prozaicznie nie ma na czym odtworzyć danych lub nie ma osoby która jest w stanie daną technologię obsłużyć.

Jak przeciwdziałać czynnikowi ograniczonych zasobów? Choć to brzmi banalnie prosto, takie jest: Trzeba mieć plan. Dotyczy to zarówno zasobów infrastruktury jak i personelu.

Taki plan powinien uwzględniać:

  1. konsumpcję zasobów,
  2. koszty utrzymania,
  3. koszty zaopatrywania w komponenty oraz wymiany,
  4. cykl życia zasobów (sam zakup to dopiero początek opowieści),
  5. optymalizację użycia zasobów,
  6. racjonalne powiązanie z procesem wnioskowania o nowe zasoby.

Dodatkowo plan nie wdrożony, przetestowany i poprawiany regularnie, zwyczajnie nie działa i nie rozwiązuje problemu… co więcej sam stanowi inny problem, iluzji rozwiązania problemu.

Na poziomie osobistym, problem braku zasobów to kwestia ? reakcji na bieżące warunki pracy i ?asertywność w zakresie stawianych wymogów. Nie tylko nie należy zgadzać się na pracę bez zabezpieczenia w warunkach podwyższonego ryzyka, jak również silnie eskalować problem braku reakcji na zgłoszone ryzyka. W praktyce oznacza to, że praca na sprzęcie prywatnym naraża na straty finansowe i kłopoty prawne nie tylko pracodawcę, ale i nas samych oraz naszych bliskich. Praca ponad siły, w warunkach przedłużającego się stresu związana jest z ekstremalnie wysokim kosztem relaksu i naprawiania zdrowia, o ile to w ogóle będzie możliwe. Depresja, brak poczucia wartości czy brak możliwości wpływu na sytuację wokoło siebie jest obecnie problemem cywilizacyjnym wynikającym bezpośrednio ze stanu akceptowania czynnika braku zasobów i promowania „kreatywnego rozwiązania problemu kosztów”.

Gdy zjawisko dotyka zabezpieczeń informacji czy bezpieczeństwa fizycznego – nie ma miejsca na kompromisy. Przekraczanie granicy w pierwszej sytuacji prowadzi do kar finansowych i odpowiedzialności osobistej (tak, ostatecznie zostajemy sami z problemem), w drugiej zaś do utraty zdrowia lub życia swojego, współpracowników lub rodziny (jak np. wypadek samochodowy w wyniku przemęczenia bądź niesprawnego sprzętu).
Dlatego kompetencja ?rozwagi stanowi miarę naszego zaangażowania. Nie można podać uniwersalnego rozwiązania tego problemu, jednak posiadanie sprawnego planu zarządzania zasobami i potrzebami, wraz z komunikacją uwzględniającą realia zastosowanych ograniczeń technologicznych i proceduralnych (?ochroń) jak i zaangażowanego personelu (?szacunek) stanowią niezbędny punkt wyjścia. Warto tutaj zaznaczyć, podsumowując, że procesy, ludzie i technologie w dowolnej konfiguracji zawsze są podatne na problem ograniczonych zasobów, a skuteczne nimi zarządzanie nie polega na „kreatywnym nalewaniu z pustego”, tylko racjonalnej i bazującej na liczbach, ilościowej analizie ryzyka.

 

Artur Marek Maciąg

Inicjatywa Kultury Bezpieczeństwa, doświadczony expert i pasjonat bezpieczeństwa informacji.

PECHOWA DWUNASTKA: o bezkrytycznym podejściu do siebie

Pechowa dwunastka dotycząca zjawisk leżących u podstaw błędów ludzkich, zwana również „Dirty dozen of human errors” zawiera zarówno czynniki osobiste jak i organizacyjne. Czasami ten podział nie jest tak prosty do utrzymania, jako że organizację tworzą ludzie, którzy z drugiej strony poświęcają swoje osobiste nawyki na rzecz ładu organizacyjnego. Tak jest z marcowym czynnikiem – bezkrytycznym podejściem do siebie, czy też nadmierną wiarą w swoje możliwości. Jest to zjawisko obserwowane zarówno w przypadku poszczególnych pracowników jak i strategii przyjmowanych w organizacji. Jako, że źródłem problemu ponownie jest percepcja rzeczywistości – warto krótko spojrzeć na problem z perspektywy znanych błędów procesu poznawczego, określanych też jako „cognitive bias”. Do najbardziej użytecznych w tym przypadku należy efekt Dunninga-Krugera, w Internecie, powszechnie identyfikowany z krzywą uczenia się.

U podstaw efektu Dunninga-Krugera leżała seria eksperymentów, która wykazała, że osoby o małym doświadczeniu zazwyczaj przeceniają swoje możliwości, w przeciwieństwie do osób doświadczonych, które w większości przypadków nie doceniają swojej wiedzy. To właśnie ten efekt odpowiada za euforię i autorytatywny ton wypowiedzi osób, które spotkały się z akceptacją swoich opinii na podstawie dosłownie kilku trafnych odpowiedzi. Te osoby, zazwyczaj nie dostrzegają obszaru wiedzy niezbędnego do analizy dowolnego przypadku i generalizują rozwiązania w oparciu o kilka poznanych sytuacji. Takie podejście koncentruje się na dramatycznym poszukiwaniu poparcia doświadczonych ekspertów i potwierdzeniu poprawności prezentowanej opinii jako wiedzy. Niestety, jest to sprzeczne z rzetelną metodą falsyfikacji hipotezy (tym właśnie jest nasza opinia). Dopiero brak kontr-przykładu pozwala uznać ją za wartościową w poruszanym obszarze tematu. Np. czytając 10 recenzji na temat danej technologii można wyrobić sobie konkretną opinię na jej temat. Jednak dopiero posiadanie własnych doświadczeń, porównań do innych technologii, a przede wszystkim, weryfikowanie funkcjonalności, zamiast założenie, że faktycznie występuje tak jak jest opisana przez producenta, jest jednym z przykładów tego efektu w praktyce.

Ogólnie, przykłady można mnożyć, od dobrych praktyk, których celu praktycznie nie rozumiemy, po problemy życia codziennego, w których efekty:

  1. Opierania się na naszej pamięci (tak, na pewno wyłączyłem żelazko),
  2. Polegania na naszych nawykach (tak przecież zawsze robię i działa),
  3. Wyciąganiu błędnych wniosków z oczywistych sygnałów (zdążę na czerwonym),
  4. Przecenianiu sił i możliwości (zdążę to zrobić dzisiaj, do końca dnia),
  5. Ignorowania ostrzeżeń i przekraczanie wyznaczanych granic (jak raz obejdę ten zakaz, nic się złego nie stanie),

każdy może zidentyfikować w osobistych i służbowych sytuacjach. Co więcej, tendencja do dostrzegania ich u innych, a nie u nas samych, jest również jednym z błędów poznawczych.

Zdarzenia manifestujące się pod wpływem tego zjawiska, najczęściej postrzegane są jako niegroźne. Ma to miejsce nawet gdy doprowadziły one do poważnego incydentu, gdyż zazwyczaj nie są identyfikowane w procesie poszukiwania przyczyn incydentu.

Jak przeciwdziałać efektowi Dunninga – Krugera? Przede wszystkich poznać własne ograniczenia jak i te wynikające ze szczegółowych procesów czy technologii. Konkretne strategie przeciwdziałania zawierają np.:

  1. Przygotuj się, że coś może pójść niezgodnie z planem/założeniami
  2. Nie podpisuj ani potwierdzaj wykonania pracy, której nie wiesz, czy jest wykonana
  3. Sprawdź dwukrotnie wyniki swojej pracy
  4. Nie ryzykuj licząc na szczęście bądź w oparciu o „zawsze się udawało”

Te proste porady w ramach systemu #poProstuBezpiecznie dotyczą następujących celów życiowych: #ograniczenia i #zaufanie i powiązanych z nimi kompetencjami bezpiecznej postawy: ? #ochroń i ? #szacunek. W ramach „celów życiowych”, wybór naszych wartości, którymi kierujemy się w życiu nakłada na nasze wybory ograniczenia, które skłaniają nas do poszukiwania pomocy, czy w formie innych osób czy technologii. Budowanie relacji zaufania jest tutaj krytyczne, gdyż zawiedzione zaufanie może sprowadzić na nas poważne konsekwencje. I choć zazwyczaj oba te obszary postrzegamy zewnętrznie, to odnoszą się one do nas samych w takim samym zakresie. Jeśli nie jesteśmy świadomi naszych ograniczeń poznawczych, tego jak i na jakiej podstawie, podejmujemy decyzje, jak nasze nawyki potrafią nas wprowadzić w błąd, ponosimy bardzo bolesne konsekwencje. Czy to jest zbyt duża wiara w systemy hamowania samochodu przy brawurowej jeździe, czy posiadanie 100% pewności, że dany rachunek został opłacony i to wezwanie do zapłaty to jakiś błąd. Rutyna ograniczonego zaufania co do siebie samego jest jednym z najtrudniejszych mechanizmów bezpieczeństwa, który np. pozwala ograniczyć wpływ emocji, niezbędnych do skutecznego ataku phishingowego. Świadomość obecności TU i TERAZ a nie opierania się na pamięci lub wyobrażeniach jest trudna, jednak możliwa do osiągnięcia poprzez trening samoświadomości i uważności, do których zachęcam każdego.

Jak to zrobić? Poznać siebie, swoje ograniczenia, testować się na małych wyzwaniach, o ograniczonych konsekwencjach. Można też sprawdzić się z #projektFeniks i poznać własny katalog ryzyk dla aktywności z udziałem technologii oraz zweryfikować swoje poglądy na temat dobrych praktyk. Najważniejsze jest jednak, zdać sobie sprawę z tego czego nie wiemy, a co zakładamy, że wiemy, choć nie mamy do tego żadnych podstaw. Tak przygotowani, możemy żyć z efektem Dunninga-Krugera i ograniczać jego negatywny wpływ na nasze decyzje.

O efekcie Dunninga-Krugera w cyberprzestrzeni można poczytać tutaj (po angielsku).

 

Artur Marek Maciąg

Inicjatywa Kultury Bezpieczeństwa, doświadczony expert i pasjonat bezpieczeństwa informacji.

 

Pechowa Dwunastka: Spójrzmy przez lupę na nasze nawyki

Odkrywając kolejne tajemnice Pechowej Dwunastki, czyli 12 typowych problemów związanych z zachowaniem ludzi jak i stylem zarządzania organizacją i leżących u źródeł praktycznie wszystkich incydentów, w tym tych dotyczących bezpieczeństwa informacji, spójrzmy dzisiaj przez lupę na nasze nawyki, które przyjęliśmy za normę czy zaakceptowaliśmy jako standard, czy w pracy, czy w domu.

Przykładów jest dużo, więcej niż chcemy dostrzec przyglądając się sobie. Do tych najbardziej popularnych należą:

  1. W pracy:
    • Praca z informacjami służbowymi i rozmowy o pracy w przestrzeniach publicznych, podczas podróży, w taksówce – gdzie nasze rozmowy mogą zostać podsłuchane, a ekran podglądnięty, dane przechwycone (używając publicznego wi-fi, nieznanego połączenia kablowego, przy braku stosowania VPN-a);
    • Przytrzymywanie drzwi z kontrolą dostępu – uprzejmie wpuszczając nieznajomych na teren firmy;
    • Wysyłanie „zaproszeń na pizzę” z konta mailowego użytkownika który nie zablokował ekranu urządzenia służbowego – niwecząc rozliczalność czynności przeprowadzonych w trakcie tej sesji logowania przez użytkownika i uniemożliwiając karanie pracownika-sabotażysty (nie wiadomo kto faktycznie wykonał operacje na tym koncie);
    • Obchodzenie zabezpieczeń proceduralnych i technicznych w celu większej elastyczności i wydajności realizowanych zadań służbowych, itp.
  2. W domu:
    • „Tak jak wszyscy” – udostępnianie zdjęć, lokalizacji, informacji prywatnych publicznie w sieciach społecznościowych, przekazywanie prywatnych i intymnych informacji mailem u publicznego operatora (google, interia, onet, wp) – pozbawiając się kontroli nad naszymi tajemnicami bez świadomości konsekwencji;
    • Lekkomyślne podejście do tworzenia kopii zapasowych i archiwizacji danych ważnych dla naszych interesów – co w przypadku ich utraty lub braku dostępu (zagubienie, kradzież, ransomware) prowadzi do poważnych utrudnień;
    • Nadużywanie elektronicznych urządzeń ekranowych do komunikacji, rozrywki, edukacji i pracy w obecności bliskich, którzy potrzebują uwagi – co prowadzi do eskalacji problemów, budowania dystansu i ograniczenia postrzegania świadomości, docelowo do agresji i depresji.

Powyższa lista, choć niekompletna to w zakresie konsekwencji wygląda niepokojąco a nawet poważnie. Co można zrobić w celu redukcji obecności tego czynnika w naszym zachowaniu?

Samodzielnie oceń, jaka norma zachowania jest zgodna z Twoimi przekonaniami i wartościami, które cenisz a nie opieraj się na wymówkach, że inni również tak robią. Fakt, że inne osoby zachowują się w określony sposób nie oznacza, że to zachowanie jest poprawne. Asertywność ?i poznanie kontekstu ? są tutaj kluczowymi kompetencjami jakie należy rozwijać.

Niebezpieczne zachowania, nawet przyzwolone w obrębie danej społeczności (jak środowisko firmy czy zespołu, bądź rodzina) należy eliminować skutecznie. Iluzja braku konsekwencji złych nawyków i praktyk głównie bazuje na braku wiedzy o incydentach, do których doprowadziło takie zaufanie, co jest kolejną złą praktyką. Trwamy w błędzie, głównie dlatego że nie dostrzegamy realnie jego konsekwencji, mylnie interpretując przyczyny znanych incydentów. Np. uzyskanie dostępu do kontenerów w Amazon S3, czy baz danych Mongo, w wielu przypadkach zabezpieczonych prostym hasłem lub nawet jego brakiem jest powielaniem złych praktyk stosowanych w lokalnych zasobach (dom, firma). Oczywiście brak świadomości zabezpieczeń sieciowych w chmurze jest tutaj typowo wskazane jako przyczyna, a nie nawyki, które jednak faktycznie stoją za brakiem wskazanych mechanizmów. Z tego powodu, ? reagowanie na incydenty, w tym analiza ich skutków jak i zgłaszanie złych praktyk do poprawy, są kluczową kompetencją pomagającą wyplenić złe nawyki.

Trzecim najbardziej niewidocznym elementem redukującym opisane niepożądane zachowania jest komunikacja i współdzielenie zbliżonych wartości ⛔, czyli faktyczny sens prywatności – znajomość celu i tego co ma być chronione. Zapewnienie, że wszyscy zgadzają się co do podstaw, akceptują ustalone reguły i rozumieją jak własny przykład ? wpływa realnie na ich skuteczność to cel w zasięgu każdego człowieka i każdej organizacji.

Podsumowując. Źle się dzieje, gdy przyzwalamy w formie normy danej społeczności na realizację złych praktyk. Szczególnie gdy są one sprzeczne z naszymi celami i podważają wartość jaką cenimy w naszym prywatnym życiu, rodzinie czy organizacji. Już dzisiaj możesz przemyśleć co stanowi dla Ciebie wartość, jakie zachowania mają na nią negatywny wpływ i rozpocząć ich redukcję, a najlepiej eliminację.

Jeśli chcesz to robić w dojrzały sposób, rejestruj incydenty i analizuj ich przyczyny. Staraj się być w tym obiektywnym i takim podejściem zarażaj faktycznych lub potencjalnych uczestników incydentu. Zespołowa analiza incydentu sama w sobie będzie edukować i wspierać eliminację niebezpiecznych zachowań, zwłaszcza jeśli uda się znaleźć ich źródła i sformułować działania naprawcze. Monitorowanie ilości incydentów, zgodnie z zasadą, iż zarządzać można tylko tym co mierzalne, pozwoli ocenić czy Twoja praca przynosi owoce.

Powodzenia!

 

 

Artur Marek Maciąg

Inicjatywa Kultury Bezpieczeństwa, doświadczony expert i pasjonat bezpieczeństwa informacji.

 

Autor artykułów z kategorii
bezpieczeństwo ICT i aplikacji.

Jest wieloletnim ekspertem z zakresu zarządzania systemami IT i bezpieczeństwa. Specjalizuje się w analizach podatności i testach bezpieczeństwa.

Autor artykułów z kategorii
człowiek słabe ogniwo.

Inicjatywa Kultury Bezpieczeństwa, doświadczony expert i pasjonat bezpieczeństwa informacji.