Kontekst ma znaczenie

Czy jedna odpowiedź powinna wystarczyć wszystkim w firmie? To samo pytanie może oznaczać coś zupełnie innego dla pracownika, HR i managera. Dane pokazują, że dopiero kontekst roli zwiększa skuteczność wdrożeń AI. Jeśli asystent nie rozumie, kto pyta i dlaczego, staje się tylko generatorem treści. A w organizacji liczy się adekwatność, nie uniwersalność.

Share

Czy naprawdę chcemy, żeby wszyscy w firmie dostawali tę samą odpowiedź?

Na pierwszy rzut oka brzmi to rozsądnie – jedna wersja prawdy, jedna interpretacja, jedna komunikacja. W praktyce jednak organizacja nie jest jednorodnym organizmem. Składa się z ról, odpowiedzialności i perspektyw, które determinują sposób, w jaki interpretujemy tę samą informację.

Jednym z najczęstszych błędów w projektowaniu asystentów AI jest założenie, że jedna odpowiedź na pytanie w zupełności wystarczy. Tak nie jest.

Weźmy prosty przykład:
„Podaj mi, jaką mam liczbę dni urlopu?”

Z perspektywy pracownika to pytanie o dostępny limit i możliwość zaplanowania wolnego czasu.
Z perspektywy HR to kwestia sposobu naliczania, podstawy prawnej, wymiaru etatu, stażu pracy czy zmian w przepisach.
Z perspektywy managera – to informacja o dostępności członka zespołu, wpływie na realizację celów oraz konieczności przeorganizowania pracy.

To samo pytanie. Trzy różne konteksty. Trzy różne potrzeby informacyjne.

Raport PwC „Global Workforce Hopes and Fears Survey 2025” pokazuje, że pracownicy oczekują personalizacji narzędzi cyfrowych i dopasowania informacji do ich roli. Jednocześnie liderzy wskazują, że brak kontekstowego wsparcia w systemach cyfrowych obniża efektywność decyzji operacyjnych.

Z kolei raport Accenture „Technology Vision 2025” podkreśla, że organizacje, które osiągają najwyższą produktywność dzięki AI, projektują systemy w oparciu o tzw. role-based intelligence – czyli inteligencję przypisaną do konkretnej funkcji w strukturze firmy. Uniwersalne modele odpowiedzi okazują się niewystarczające w środowisku złożonych procesów.

Dlaczego?

Bo pytanie w organizacji nigdy nie jest neutralne. Ono zawsze „rodzi się” z roli.

Pracownik pyta, bo chce coś zaplanować.
HR pyta, bo musi coś zweryfikować.
Manager pyta, bo odpowiada za wynik zespołu.

Jeśli asystent AI ignoruje te różnice i udziela identycznej odpowiedzi każdemu, generuje informację poprawną formalnie, ale nieadekwatną operacyjnie.

A w organizacji liczy się adekwatność.

Raport Boston Consulting Group z 2025 roku dotyczący adopcji AI w przedsiębiorstwach wskazuje, że jednym z głównych czynników zwiększających efektywność wdrożeń jest dopasowanie systemów do struktury odpowiedzialności. Firmy, które projektują AI z uwzględnieniem różnic kompetencyjnych i decyzyjnych, szybciej osiągają wzrost produktywności niż te, które wdrażają rozwiązania uniwersalne.

Asystent bez kontekstu jest szybkim narzędziem do generowania treści.
Asystent z kontekstem staje się wsparciem decyzyjnym.

Różnica polega na tym, że w drugim przypadku system rozumie:
– kim jest użytkownik,
– jakie ma uprawnienia,
– za co odpowiada,
– w jakim miejscu procesu się znajduje.

W organizacji pytanie nigdy nie jest oderwane od struktury. Nawet najprostsze zapytanie dotyczy roli, odpowiedzialności i miejsca w hierarchii.

Dlatego projektowanie asystenta AI nie powinno zaczynać się od „jakiej odpowiedzi udzielić?”, lecz od „dla kogo ta odpowiedź jest i w jakim celu?”.

Jedna odpowiedź dla wszystkich brzmi jak porządek.
W praktyce jest uproszczeniem, które ignoruje realną złożoność firmy.

A złożoność – odpowiednio zrozumiana – jest źródłem przewagi, nie problemem.