Analogia do AI: Strategiczne rozstaje 2024
- Wzorzec się powtarza
- Lekcja warta 14 miliardów euro z branży motoryzacyjnej
- Analogia do AI: Strategiczne rozstaje 2024
- Dlaczego „eksperci" wciąż nie mają odpowiedzi
- Co naprawdę oznacza kompetencja w zakresie AI
- Kluczowe pytanie: nauczyć łowić ryby czy łowić je za ciebie?
- Poniedziałkowy plan działania
- Podsumowanie: Okno czasowe się zamyka
Właśnie teraz firmy robią z AI dokładnie to, co VW zrobił z oprogramowaniem.
Traktują AI jako problem dostawcy. Czekają, aż integratorzy systemów zbudują dla nich możliwości AI. Zatrudniają McKinsey, żeby napisał im „strategię AI". Sprowadzają Accenture do wdrożenia rozwiązań AI. Outsourcują myślenie, zanim zrozumieją, o czym w ogóle myślą.
Ten wzorzec nie jest unikalny dla branży motoryzacyjnej. Widzimy go w handlu detalicznym, usługach finansowych, produkcji i wielu innych sektorach. Te same firmy, które przez ostatnie dwie dekady zmagały się z nadrabianiem zaległości w oprogramowaniu, teraz podejmują ten sam wybór w kwestii AI.
Logika wydaje się bezpieczna: AI jest niepewna, złożona i szybko się zmienia. Lepiej pozwolić ekspertom się tym zająć. Po co są konsultanci, jeśli nie do tego?
Problematyczne jest jedno: ekspertów jeszcze nie ma. AI w swojej obecnej formie ma trzy lata. Duże modele językowe weszły do głównego nurtu pod koniec 2022 roku. Agentyczna AI jest jeszcze młodsza. Narzędzia, techniki i najlepsze praktyki są wciąż odkrywane.
Integratorzy systemów, którzy dziś sprzedają „transformację AI"? Odkrywają to razem z tobą. Może zatrudnili kilku inżynierów uczenia maszynowego. Może przeprowadzili kilka pilotów. Ale nie mają dziesięcioleci wiedzy instytucjonalnej. Nie mają własnych metodologii, które naprawdę działają. Eksperymentują – i obciążają cię kosztami procesu uczenia się.
Przysłowie pasuje idealnie: „W krainie ślepych jednooki jest królem." Właśnie to robią teraz integratorzy systemów. Pozycjonują się jako eksperci w dziedzinie, w której nikt jeszcze nie osiągnął mistrzostwa.
I tak jak w przypadku oprogramowania, prawdziwe ryzyko nie polega na tym, żeby pozostać w tyle za konkretną technologią. Ryzyko to zależność. Gdy outsourcujesz strategię i implementację AI, tworzysz strukturalną lukę. Twoi ludzie przestają się uczyć. Twoja organizacja przestaje budować pamięć mięśniową potrzebną do eksperymentowania, ponoszenia porażek, iterowania i doskonalenia się. Stajesz się zależny/a od zewnętrznych partnerów, którzy podejmują decyzje dotyczące twojego podstawowego biznesu.
Co gorsza, nie budujesz kompetencji AI w swojej organizacji. A kompetencja w zakresie AI jest fundamentalna – jak nauka czytania czy nauka korzystania z Microsoft Office. To nie jest wyspecjalizowana umiejętność techniczna. To podstawowa zdolność, którą każdy pracownik potrzebuje, żeby wykonywać swoją pracę lepiej, szybciej i skuteczniej.
To jest pułapka zależności od AI. I zaciska się właśnie teraz, w czasie rzeczywistym, w całych branżach.