business, businessman, chair-1839191.jpg

6 powodów, dla których ważna jest interpretowalność modelu ML

Dlaczego dbanie o interpretowalność modelu jest tak ważne?
Przedstawię dziś 6 powodów, z których część może Cię zaskoczyć.

1. Zaufanie do modelu i pewność, że robi on to, co miał robić.

Pierwszym krokiem oceny jakości modelu jest odpowiednio zdefiniowana metryka (np. accuracy, F1 czy MAPE).
Jednak metryka może być obliczona w niewłaściwy sposób lub może być nieinformatywna.
Dlatego zazwyczaj największą pewność co do jakości modelu możemy uzyskać tylko poprzez zrozumienie, co on robi i dlaczego daje takie przewidywania.

2. Zaufanie od odbiorców Twojego modelu.

Projekty Machine Learning bardziej niż typowe prace w IT opierają się na wzajemnym zaufaniu i dobrej komunikacji.
Osoba, która finansuje Twój projekt, często chce mieć jasne wyjaśnienie, co robi model i dlaczego zwraca takie wyniki.
W im bardziej przekonujący sposób będziesz potrafił wyjaśnić otrzymywane wyniki, tym większa szansa, że zbudujesz zaufanie.

3. Debugowanie

Zrozumienie modelu jest niezwykle ważne, gdy wyniki modelu są poniżej Twoich oczekiwań i zaczynasz się zastanawiać, co się dzieje. Szczególnie, gdy model dobrze sobie radzi na zbiorze treningowym, a słabo na testowym.
Kiedy zrozumiesz, na które cechy twój model patrzy najbardziej, możesz odkryć, że rozkład tych cech w zbiorze testowym różni się od treningowego lub że brakuje pewnych wartości w danych, które były kluczowe dla modelu.

4. Prostsza alternatywa

Dzięki wyjaśnialności modelu wiesz, które cechy są istotne i możesz zaproponować prostsze modele alternatywne, które mają podobną moc predykcyjną.
Często da się usunąć 90% cech i wytrenować model ponownie. Będzie on szybszy, bo ma mniej parametrów. Ale również proces zbierania danych i preprocessingu będzie prostszy.

5. Rozszerzenie wiedzy dziedzinowej

Narzędzia do wyjaśniania modelu pokazują nam cechy, które najbardziej wpływają na wynik modelu.
Modele często wykrywają korelacje niezbadane wcześniej przez ekspertów w danej dziedzinie.
Dzięki nim decyzje człowieka mogą być w przyszłości lepsze, nawet jeśli nie zdecydujesz się na zastąpienie ich modelem.

6. Zgodność z przepisami

Jeśli decyzje modelu mają wpływ na życie ludzi (np. zgoda na pożyczkę w banku), to ważne jest, aby mieć pewność, że model ma sens, daje dokładną odpowiedź i nie dyskryminuje w nieuzasadniony sposób żadnej grupy osób.
Jeśli decyzja jest oparta na nieprzejrzystej czarnej skrzynce, możesz nie mieć pojęcia, dlaczego odpowiedź dla jednej osoby była pozytywna, a dla innej nie.
Jeśli decyzja zostanie zaskarżona do sądu, możesz mieć problem z wybronieniem jej.

Mam nadzieję, że ten artykuł przekonał Cię, że zadbanie o interpretowalność powinno być stałym elementem Twojej pracy nad projektem ML.

Daj mi znać w komentarzu, o co o tym sądzisz!