odpowiedzialna-sztuczna-inteligencja_post_image

Odpowiedzialna sztuczna inteligencja

Czas czytania artykułu: 3 minuty
by Michał
19.07.2024

Od nastania wielkiego boomu i powszechnego zainteresowania wykorzystaniem sztucznej inteligencji do celów komercyjnych pojawiło się już wiele opracowań tłumaczących „co” oraz „jak”. SAFe proponuje, by pochylić się także nad zagadnieniem szeroko pojętej odpowiedzialności za to, co rzeczona inteligencja w naszym imieniu tworzy.

Sztuczna inteligencja oferuje znaczące korzyści dla firm, jednak wiąże się z pewnym ryzykiem. Aby odpowiedzialnie z niej korzystać, firmy powinny przyjąć określone zasady, metody i technologie postępowania z nią w codziennej pracy. Praktyki SAFe mogą pomóc firmom przyspieszyć ich wysiłki w zakresie implementacji sztucznej inteligencji na odpowiednim poziomie i w odpowiedniej jakości.

odpowiedzialna-sztuczna-inteligencja_w_tekscie1

Odpowiedzialna sztuczna inteligencja ma kluczowe znaczenie dla organizacji, ponieważ ryzyko związane z jej niekontrolowaniem może przewyższać jej korzyści. Konkretne zagrożenia obejmują stronniczość w systemach jej podległych z powodu tendencyjnych danych testowych, co prowadzić może m.in. do niedokładnego rozpoznawania twarzy. Aberracje i zaburzenia występują, gdy sztuczna inteligencja generuje bezsensowne wyniki z powodu błędów w źródle, danych lub sposobie ich modelowania. Historia zna przypadki, gdy chatbot pewnej linii lotniczej omyłkowo zaoferował klientowi nieistniejącą zniżkę. Sprawa ujrzała swój finał w sądzie, który jednoznacznie określił, że odpowiedzialność za wytwory sztucznej inteligencji ponosi jej właściciel.

Godna zaufania sztuczna inteligencja oznacza, że systemy AI działają zgodnie z przeznaczeniem, są bezpieczne i chronią prywatne informacje. Na zaufanie składają się atrybuty takie jak prywatność i poufność względem powierzonych danych, ich bezpieczeństwo w przestrzeni internetowej, odporność na ataki, niezawodność w działaniu zgodnie z przeznaczeniem oraz dokładność w przedstawianych rezultatach generowania odpowiedzi. Gdy system AI ma wszystkie te cechy, firmy i ich klienci są bardziej skłonni mu zaufać i na nim polegać.

Wytłumaczalna, klarowna sztuczna inteligencja sprawia, że systemy AI są otwarte i przejrzyste, dzięki czemu ludzie mogą zrozumieć, w jaki sposób uzyskują wyniki, które generują. Obejmuje ona przejrzystość źródeł pochodzenia danych, ich interpretowalność oraz odpowiedzialność za przedstawione wyniki, a to sprawia, że klienci bardziej ufają proponowanym przez nie rozwiązaniom.

Systemy AI skoncentrowane na człowieku powinny z kolei być zawsze bezpieczne i unikać szkodzenia zarówno ludziom, jak i mieniu i środowisku, a także powinny przestrzegać zasad i wartości społecznych. Kluczowymi aspektami sztucznej inteligencji zorientowanej na człowieka będą m.in.: bezpieczeństwo dla ludzi i zrównoważony rozwój dla ich otoczenia, sprawiedliwość w traktowaniu użytkowników bez uprzedzeń, etyka w postępowaniu w zgodzie z zasadami moralnymi i wartościami wyznawanymi przez społeczeństwo, integralność oraz inkluzyjność w uwzględnianiu w wynikach wielu punktów widzenia oraz zgodność z obecnie panującymi przepisami i standardami. Im bardziej upoważniamy sztuczną inteligencję do niezależnego działania, tym ważniejsze staje się, aby jej systemy były zaprojektowane tak, aby nie szkodzić ludziom, którzy je tworzą i jej używają.

odpowiedzialna-sztuczna-inteligencja_w_tekscie2

Odpowiedzialna sztuczna inteligencja zaczyna odgrywać znaczącą rolę wśród priorytetów ogólnie pojętej kadry menadżerskiej. Liderzy wysokiego szczebla często przewodzą inicjatywom związanym z wdrożeniem przeróżnych systemów AI w życie, posiłkując się przy tym powołanym w tym celu grupami zadaniowymi wcielającymi owe strategie w życie. Tworzone są praktyki i zakresy działań w wykorzystaniu sztucznej inteligencji, nierzadko z pomocą ekspertów prawnych. Celem tych przedsięwzięć jest stworzenie kompleksowego zestawu wytycznych dotyczących odpowiedzialnego korzystania z systemów AI, tak na poziomie całej organizacji, jak i poszczególnych wydziałów, ról i kompetencji, które wchodzą w jej skład. Wytyczne te bezpośrednio oddziałują na strategię firmy przy równoczesnym rozwoju zupełnie nowej gałęzi nauki, jaką jest AI.

Artykuł powstał przy udziale i wsparciu sztucznej inteligencji użytej w sposób odpowiedzialny.

O autorze

Michał
Michał, SAFe Practice Consultant
Niezmiennie od 1994 związany ze Szczecinem. Absolwent informatyki WI ZUT w Szczecinie. Najmłodszy SPC w Demant. Zawodowo odpowiedzialny wdrażanie metodologii SAFe. Pasjonat zwinności, analogowy fotograf-amator, specjalista od gadania oraz na wskroś szczecińskiego braku umiaru.