Cyfrowy strażnik jakości: jak algorytmy uczą się zauważać wady szybciej niż człowiek

0
31
5/5 - (1 vote)

Nawigacja:

Dlaczego „cyfrowy strażnik jakości” stał się realny właśnie teraz

Jak wygląda tradycyjna kontrola jakości w zakładach produkcyjnych

W większości fabryk kontrola jakości opiera się wciąż na trzech filarach: inspekcji manualnej, próbkowaniu i prostych czujnikach. Operator lub kontroler jakości ogląda produkt wzrokiem, czasem używając lupy, suwmiarki czy mikrometru. Często nie jest sprawdzany każdy element, lecz tylko co dziesiąty czy co setny, zgodnie z przyjętym planem próbkowania. Do tego dochodzą czujniki: bramki pomiarowe, czujniki długości, wagi, tensometry, fotokomórki, które wykrywają tylko ściśle zdefiniowane odchyłki.

Taki model działał latami, dopóki produkty były stosunkowo proste, a tolerancje – szerokie. Człowiek z doświadczeniem bez trudu odróżniał „dobry” detal od „złego”, a głównym ograniczeniem był czas. Wraz z rosnącą złożonością wyrobów i rosnącą prędkością linii, ludzkie oko zaczęło przegrywać wyścig z taśmą.

Mit, który często jeszcze funkcjonuje, mówi: „Do kontroli jakości wystarczy dobry operator”. Rzeczywistość w nowoczesnych zakładach jest taka, że najlepszy operator nie jest w stanie obejrzeć wzrokiem kilku tysięcy części na godzinę i utrzymać tej samej uwagi przez całą zmianę. To nie jest kwestia kompetencji, tylko biologii.

Nowa rzeczywistość: złożoność produktów i presja na zero defektów

Cyfrowy strażnik jakości – czyli system oparty o algorytmy i wizję komputerową – pojawił się jako odpowiedź na trzy równoległe zjawiska w przemyśle:

  • Złożone produkty i krótsze serie – więcej wariantów, kolorów, drobnych różnic konstrukcyjnych. Operator musi w krótkim czasie przestawić się z kontroli jednego typu wyrobu na inny. Algorytm może przełączać „receptury” w ułamku sekundy.
  • Wymóg śledzenia i dokumentacji jakości – klienci chcą dowodu, że każdy produkt został skontrolowany, a nie tylko próbka. Dziennik obrazów i wyników inspekcji z systemu wizyjnego staje się naturalnym „rejestrem kontroli”.
  • Presja na zero defektów (zero defects) – reklamacja z powodu jednego wadliwego elementu potrafi zjeść marżę na całej serii, a przy komponentach bezpieczeństwa jest wręcz nieakceptowalna. Statystyczne próbkowanie już nie wystarcza.

Im wyższe wymagania jakościowe, tym mniej miejsca na subiektywność i zmęczenie. System AI nie ma gorszego dnia, nie boli go głowa, nie traci koncentracji po wielu godzinach patrzenia na podobne obiekty.

Co się zmieniło technologicznie: tanie kamery, moc obliczeniowa i biblioteki AI

Sam pomysł, by komputer patrzył na produkt i szukał wad, nie jest nowy. Systemy wizyjne istnieją od dekad. Przez długi czas barierą były koszty i złożoność: drogie, specjalistyczne kamery, dedykowane karty obliczeniowe, własnościowe oprogramowanie, projekty za setki tysięcy euro. Dziś sytuacja wygląda zupełnie inaczej m.in. z trzech powodów.

Po pierwsze, moc obliczeniowa. Nawet kompaktowe komputery przemysłowe czy urządzenia edge z procesorami GPU/TPU wykonują tysiące operacji wizji na sekundę. Modele sieci neuronowych, które kiedyś wymagały klastra serwerów, teraz działają w szafce sterowniczej obok linii.

Po drugie, dostępność kamer i optyki. Przemysłowe kamery liniowe i matrycowe staniały, a ich parametry – rozdzielczość, szybkość, dynamika – wystrzeliły w górę. Do tego rozwój LED-owego oświetlenia przemysłowego, pierścieni, paneli i projektorów światła strukturalnego, które można precyzyjnie dopasować do zadania.

Po trzecie, biblioteki i frameworki ML/vision. OpenCV, TensorFlow, PyTorch, a w świecie przemysłowym – gotowe SDK producentów kamer (Cognex, Keyence, IDS, Basler i inni), które pozwalają wdrażać rozwiązania szybciej, bez pisania wszystkiego „od zera”. Dochodzi do tego powszechne wsparcie kontenerów, edge computing i integracja z istniejącą infrastrukturą OT.

Mit: „AI to gadżet dla korporacji” a rzeczywiste wdrożenia w średnich fabrykach

Często powtarzana opinia: algorytmy i sztuczna inteligencja w kontroli jakości są tylko dla największych, globalnych koncernów. Tymczasem sporo wdrożeń pojawia się w średnich firmach z kilkoma liniami, a czasem w niewielkich zakładach rodzinnych, które robią jeden produkt, ale o ekstremalnie wyśrubowanych wymaganiach jakościowych.

Powód jest prosty: koszt błędu. Jeśli jeden wadliwy element powoduje kosztowny zwrot, utratę kontraktu albo wielodniowy przestój po stronie klienta, to nawet relatywnie drogi system wizyjny zwraca się bardzo szybko. Z drugiej strony, można zacząć małym krokiem – pojedynczą stacją kontroli jednego krytycznego parametru – zamiast od razu budować „inteligentną fabrykę 4.0”.

Rzeczywistość koryguje też mit, że „AI sama wszystko załatwi”. System wizyjny wymaga dobrze przemyślanej mechaniki, stabilnego procesu, sensownego planu zbierania danych i współpracy z ludźmi na hali. Bez tego nawet najlepszy algorytm będzie tylko drogim gadżetem.

Dlaczego algorytmy wykrywają wady szybciej i częściej niż człowiek

Cyfrowy strażnik jakości wygrywa z człowiekiem nie dlatego, że jest „inteligentniejszy”, ale dlatego, że lepiej radzi sobie z powtarzalnymi, wizualnymi zadaniami pod presją czasu. Oto kilka przyczyn:

  • Brak zmęczenia – model może analizować obrazy przez całą dobę w tej samej jakości, podczas gdy uwaga człowieka wyraźnie spada już po kilkudziesięciu minutach monotonicznej pracy.
  • Mikro-różnice – algorytmy przetwarzają obraz jako siatkę liczb i potrafią wyłapać różnice niewidoczne gołym okiem, np. subtelną zmianę tekstury czy jasności na krawędzi.
  • Ciągła kalibracja – parametry detekcji można dostosowywać do zmieniających się warunków, np. temperatury, partii materiału, a system sam uczy się na nowych przykładach wad.
  • Prędkość reakcji – od przechwycenia obrazu do decyzji OK/NOK mija często kilkadziesiąt milisekund, a sygnał do wyrzutnika czy zatrzymania linii trafia bezpośrednio do PLC.

Algorytm nie zastępuje całej wiedzy inżynierskiej, ale wygrywa w jednym, konkretnym obszarze: bezlitosnej, nieustającej obserwacji i porównywaniu tysięcy niemal identycznych obrazów. Tu człowiek po prostu nie ma szans.

Jak algorytm „widzi” produkt – proste wyjaśnienie bez matematyki

Obraz jako siatka liczb: intuicja wizji komputerowej

Dla człowieka obraz to kształty, kolory, „wrażenie”. Dla algorytmu – zestaw liczb opisujących jasność i kolor każdego piksela. Gdy kamera robi zdjęcie elementu, w tle powstaje macierz: piksel po pikselu, kolumna po kolumnie, w każdym miejscu zapisany jest poziom jasności (w skali szarości) lub wartości trzech składowych (RGB).

Wizja komputerowa polega na przetwarzaniu tej siatki liczb w poszukiwaniu wzorów. Wzorami mogą być krawędzie, linie, okręgi, charakterystyczne tekstury, kontrast pomiędzy sąsiadującymi pikselami, a na wyższym poziomie – obiekty: śrubka, etykieta, nadruk, logo.

Cyfrowy strażnik jakości uczy się, jak wygląda „dobry” obraz, czyli jaka jest typowa konfiguracja tych liczb. Wada to odchylenie od takiego wzorca: nagłe przejście jasności, pusty obszar, inny kształt krawędzi, inna geometria otworów.

Klasyczne reguły vs uczenie maszynowe: dwie szkoły podejścia

W tradycyjnych systemach wizyjnych kontrola jakości opierała się na regułach ręcznie definiowanych. Inżynier pisał, że np.: „Jeśli liczba pikseli ciemniejszych niż próg X na obszarze Y przekroczy wartość Z, uznaj produkt za wadliwy”. Do tego dodawano filtry, operacje morfologiczne, szukanie krawędzi. Skuteczne, ale bardzo sztywne – przy zmianie produktu czy warunków trzeba było ręcznie poprawiać reguły.

Uczenie maszynowe i sieci konwolucyjne (CNN) odwracają ten proces. Zamiast mówić algorytmowi, jak ma szukać wady, pokazuje mu się mnóstwo przykładów dobrych i złych elementów. Model sam wyciąga cechy, które najlepiej różnicują obie grupy. Inżynier nie musi już przewidywać wszystkich możliwych odchyleń, koncentruje się na przygotowaniu danych i definicji celu.

Mitem jest przekonanie, że „AI sama wymyśli kryteria jakości”. W praktyce to zespół jakości musi bardzo konkretnie zdefiniować, co jest tolerowane, a co nie. Model tylko znajduje wzór odróżniający jedno od drugiego – na bazie tego, co człowiek wcześniej oznaczył jako OK lub NOK.

Co znaczy „nauczyć algorytm, co jest wadą”

Trening cyfrowego strażnika jakości zaczyna się od stworzenia zbioru danych. To zestaw obrazów (czasem także metadanych procesowych) z przypisanymi etykietami: „dobry produkt”, „wada typu rysa”, „wada typu zabrudzenie”, „brak elementu”. Etykietowanie może polegać na:

  • oznaczeniu całego obrazu jako OK/NOK,
  • zaznaczeniu obszaru wady (kontury, bounding box),
  • przypisaniu klasy do konkretnej części kadru, np. „śruba obecna/nieobecna”.

Na tej podstawie model uczy się, jakie układy pikseli odpowiadają dobrym i wadliwym przypadkom. Jeśli pokazuje się mu wystarczająco dużo zróżnicowanych przykładów (różne partie, zmiany oświetlenia, nieznaczne różnice w geometrii), potrafi potem generalizować – rozpoznawać nowe wady, których wcześniej nie widział jeden do jednego, ale są podobne do znanych.

Rzeczywistość jest dużo bardziej przyziemna niż sprzedają to foldery marketingowe. AI nie jest czarną magią – jeśli zbiór danych jest słaby (mało przykładów wad, wszystkie z jednego dnia, tylko idealne zdjęcia), system będzie się mylił. Jakość wejścia definiuje jakość cyfrowego strażnika.

Wpływ oświetlenia, położenia i tła na pracę algorytmu

Algorytm widzi tylko to, co pokaże mu kamera. A kamera z kolei „widzi” to, co oświetlenie i mechanika umożliwią zobaczyć. Dlatego tak duże znaczenie mają elementy, które czasem są bagatelizowane jako „drobne technikalia”:

  • Oświetlenie – kierunek, natężenie, barwa. Inne światło będzie najlepiej eksponować rysy, inne – zabrudzenia, jeszcze inne – różnice kształtu. Próbując trenować model na obrazach z losowym oświetleniem, wprowadzamy chaos do danych.
  • Pozycja i orientacja produktu – jeśli element za każdym razem leży trochę inaczej, model musi najpierw go „znaleźć” i wyrównać w kadrze. Im większa powtarzalność położenia, tym prostsza i bardziej niezawodna detekcja wad.
  • Tło i otoczenie – taśma, rolety, inne produkty w tle. Zbyt skomplikowane tło utrudnia odseparowanie właściwego obiektu. Strefa inspekcji powinna być jak najbardziej powtarzalna i czysta wizualnie.

Dobry projekt systemu wizyjnego zaczyna się od pytania: jak sprawić, by uszkodzenie było jak najbardziej „widoczne” na obrazie? Algorytm nie nadrobi błędów mechaniki i optyki.

Pracownik kontroli jakości ogląda arkusze w jasno oświetlonej hali
Źródło: Pexels | Autor: Ruslan Alekso

Typy wad, z którymi AI radzi sobie najlepiej (i najgorzej)

Wady wizualne: naturalne pole działania wizji komputerowej

Najłatwiejszym celem dla cyfrowego strażnika jakości są wady, które mają wyrazisty obraz na powierzchni. Należą do nich między innymi:

  • Rysy i pęknięcia – nieciągłości powierzchni, często o wyraźnym kontraście wobec tła, szczególnie dobrze widoczne przy odpowiednim bocznym oświetleniu.
  • Przebarwienia i plamy – zmiany koloru w stosunku do typowego wzorca; AI łatwo wykrywa anomalie w rozkładzie barw.
  • Ubytki, wyszczerbienia, dziury – brak materiału tam, gdzie zwykle jest; różnice w kształcie krawędzi, w profilu obiektu.
  • Zanieczyszczenia powierzchni – tłuste plamy, pył, pozostałości po procesie; często mają inną fakturę i refleksy świetlne.

W takich przypadkach model, nawet dość prosty, może osiągać bardzo wysoką powtarzalność. Czasem wystarczy klasyczna biblioteka wizji przemysłowej bez głębokiego uczenia. AI staje się szczególnie wartościowa, gdy rodzaj rys i przebarwień jest zróżnicowany i trudno jest opisać jeden „sztywny” zestaw reguł.

Detekcja błędów montażu: brak elementu, zła orientacja, zły kolor

Omyłki montażowe, które kamera widzi lepiej niż oko

Błędy montażu zazwyczaj da się opisać bardzo prosto: coś jest nie tam, gdzie trzeba, nie tak ustawione albo nie w takim wariancie, jak powinno. W obrazie przekłada się to na:

  • brak elementu – puste miejsce tam, gdzie zwykle widać śrubę, wtyczkę, podkładkę, naklejkę,
  • złą orientację – element obrócony o 90° lub 180°, odwrotnie wpięta kostka, źle włożona uszczelka,
  • zły wariant lub kolor – pomylenie wersji lewa/prawa, użycie niewłaściwej barwy elementu dekoracyjnego,
  • niekompletny montaż – brakuje jednej z kilku śrub, spinka jest, ale niedociśnięta.

Tu wizja maszynowa ma przewagę, bo może konsekwentnie sprawdzać geometrię i relacje między elementami. Algorytm nie „domyśla się”, że „pewnie jest OK”, jeśli trzy poprzednie były dobre. Każdy produkt startuje z czystym kontem.

Praktyczny przykład z linii: przy montażu modułów elektronicznych wystarczył prosty model sprawdzający obecność wszystkich złączy i kondensatorów w zadanych strefach kadru. Po wdrożeniu przestały się pojawiać reklamacje „luźnego” złącza – operatora kusiło, by przyspieszyć i „dociisnąć później”, algorytmu już nie.

Gdzie wizja AI ma pod górkę: wady ukryte, graniczne i „miękkie”

Są też obszary, w których cyfrowy strażnik jakości nie jest cudotwórcą. Największe wyzwania to:

  • wady wewnętrzne – pęcherze powietrza w odlewie, mikropęknięcia w strukturze metalu; jeśli nie wychodzą na powierzchnię, kamera ich zwyczajnie nie widzi, potrzebne są inne metody (ultradźwięki, RTG, prądy wirowe),
  • wady „na granicy tolerancji” – minimalne odchyłki wymiarowe, które lepiej zmierzy głowica pomiarowa niż oko, nawet cyfrowe,
  • subiektywna estetyka – „ta faktura jest akceptowalna, a ta już nie”, „ten odcień jest jeszcze OK” – bez twardej definicji i dużej liczby przykładów granica bywa bardzo rozmyta,
  • silnie zależne od kontekstu – ta sama kropka farby w jednym miejscu jest wadą, w innym – cechą procesu.

Mit mówi, że „AI znajdzie każdą wadę”. Rzeczywistość jest mniej efektowna: system wizyjny wykryje to, co jest wizualnie dostępne i przynajmniej częściowo powtarzalne. Reszta wymaga innych czujników albo innej architektury kontroli jakości.

Często najlepsze rozwiązanie to połączenie kilku metod: wizja odrzuca błędy montażowe i powierzchniowe, a bardziej kosztowne badania nieniszczące zarezerwowane są dla krytycznych elementów lub losowej próby z partii.

Wady losowe vs systemowe – kiedy AI świeci pełnym blaskiem

Algorytm uczy się na wzorcach, dlatego szczególnie dobrze radzi sobie z wadami, które powtarzają się z podobną przyczyną:

  • systemowe rysy zawsze w okolicy konkretnej krawędzi,
  • powtarzalne zabrudzenia w obszarze kontaktu z narzędziem,
  • powtarzające się braki śrub w tym samym punkcie montażu.

Przy takich problemach cyfrowy strażnik nie tylko odrzuca wyroby, ale staje się czujnikiem procesu. Zmiana charakteru wady często wyprzedza awarię oprzyrządowania czy rozkalibrowanie maszyny. Jeśli nagle pojawia się inny typ zarysowań, jest to sygnał do przeglądu linii.

Małe, zupełnie losowe defekty, z którymi rzadko ma się do czynienia, bywają trudniejsze. Model widzi je pierwszy raz i może zinterpretować jako „dziwną, ale jeszcze akceptowalną” wariację. Tu pomaga regularne douczanie systemu nowymi przykładami i dobrze zaplanowany obieg informacji między kontrolą końcową a zespołem utrzymania ruchu.

Od czego zacząć w fabryce – diagnostyka potrzeb i punkt wyjścia

Najpierw problem biznesowy, dopiero potem kamera

Naturalny odruch to pytanie: „jaką kamerę kupić?”. Tymczasem początek projektu powinien wyglądać inaczej: trzeba sprecyzować, jaki konkretny problem jakościowy ma zostać rozwiązany. Kilka pytań porządkuje dyskusję:

  • Jakie wady generują obecnie największe koszty (złom, przeróbki, reklamacje)?
  • Które z nich są wizualne i dają się zobaczyć na zdjęciu przy rozsądnym oświetleniu?
  • Na jakim etapie procesu najlepiej je przechwycić (po obróbce, po malowaniu, po końcowym montażu)?
  • Jakie są dziś czasy cyklu i ile czasu „z budżetu taktu” można oddać na inspekcję?

Na tej podstawie powstaje pierwszy szkic: który produkt, na jakiej stacji, z jakim celem kontroli. Zbyt ogólne założenie typu „zróbmy AI do kontroli wszystkiego” kończy się rozmyciem odpowiedzialności i systemem, który niby jest, ale nikt mu nie ufa.

Audyt produkcji oczami wizji maszynowej

Praktyczny krok to przejście po linii z patrzeniem nie „jak operator”, ale „jak kamera”. Kilkanaście zdjęć z telefonu często wystarczy, by ocenić:

  • czy da się zbudować stabilne, powtarzalne stanowisko do robienia zdjęć,
  • czy powierzchnia produktu nie jest z natury zbyt mocno refleksyjna lub zbyt ciemna,
  • czy w zasięgu wzroku są przeszkody: ręce operatora, inne detale, odblaski z okna,
  • jak duże jest zróżnicowanie między kolejnymi sztukami „dobrego” produktu.

Takie proste „foto-rozpoznanie” od razu pokazuje, czy w ogóle jest sens zaczynać od AI, czy lepiej najpierw zmienić uchwyt, osłonić stanowisko od światła dziennego, ujednolicić orientację detalu. Mit, że „AI sobie poradzi mimo bałaganu”, zwykle rozbija się o pierwszą serię zdjęć treningowych.

Pierwszy projekt: wąsko, ale konkretnie

Najsensowniejsza strategia to wybranie jednego zastosowania pilotażowego, które:

  • dotyczy wyrobu o istotnym znaczeniu (nie „treningowej zabaweczki”),
  • ma stosunkowo prosty obraz wady (rys, brak elementu, zły nadruk),
  • pojawia się na tyle często, że można w rozsądnym czasie zebrać dane,
  • ma mierzalny efekt biznesowy – choćby ograniczenie przeróbek.

Lepszy jest jeden dobrze dowieziony „cyfrowy strażnik” na kluczowym stanowisku niż pięć rozgrzebanych projektów, które po pół roku trafiają do szuflady. Zespół potrzebuje pierwszego, wiarygodnego sukcesu, żeby uwierzyć, że system ma sens i warto z nim współpracować.

Rola ludzi z jakości i produkcji

System wizyjny z AI nie jest „zabawką IT”. Najważniejszą rolę odgrywają osoby, które znają produkt i proces:

  • inżynierowie jakości – definiują kryteria OK/NOK, przygotowują katalog wad, decydują, co jest jeszcze akceptowalne,
  • brygadziści i operatorzy – pokazują, jak rzeczywiście wygląda proces, gdzie pojawiają się wady, co jest „typowe” dla danej linii,
  • utrzymanie ruchu – ocenia, co da się zmienić w mechanice i oświetleniu, gdzie wpiąć kamerę, jak zsynchronizować z PLC.

Mitem jest przekonanie, że projekt AI to domena „magików od danych”. Bez ludzi z produkcji system będzie elegancki na slajdach, ale nie wpasuje się w realny takt, ergonomię stanowiska i nawyki załogi.

Pracownicy szwalni kontrolują jakość odzieży przy taśmie produkcyjnej
Źródło: Pexels | Autor: EqualStock IN

Architektura „cyfrowego strażnika”: od kamery do decyzji „OK/NOK”

Główne klocki układanki

Niezależnie od tego, czy używany jest prosty klasyfikator, czy zaawansowana sieć neuronowa, typowy system wizji przemysłowej z AI składa się z kilku powtarzalnych elementów:

  • część optyczna – kamera, obiektyw, oświetlacz, osłony, ewentualnie filtry,
  • część mechaniczna – uchwyty, statywy, prowadnice, pozycjonowanie detalu,
  • część obliczeniowa – komputer przemysłowy, edge device lub kontroler kamery z wbudowanym modelem,
  • oprogramowanie wizji i AI – akwizycja obrazu, przetwarzanie, inferencja modelu, logika decyzji,
  • interfejs z automatyką – sygnały cyfrowe, Ethernet/IP, Profinet, komunikacja z PLC i systemami wyższego poziomu.

Na schemacie wygląda to prosto, ale każdy z tych bloków ma swoje „ale”. Jedno źle dobrane szkło lub mało stabilny uchwyt potrafi podwoić liczbę fałszywych odrzuceń i w efekcie zniechęcić ekipę na hali.

Przepływ: od impulsu z czujnika do sygnału dla wyrzutnika

Czas działania cyfrowego strażnika mierzy się zwykle w milisekundach. Typowy przebieg wygląda tak:

  1. Detekcja pozycji detalu – czujnik na linii (indukcyjny, optyczny, enoder) zgłasza, że produkt dojechał do strefy inspekcji.
  2. Wyzwolenie akwizycji – kamera dostaje sygnał „trigger” i robi zdjęcie w ściśle określonym momencie (lub kilka zdjęć w sekwencji).
  3. Wstępne przetwarzanie – oprogramowanie przycina obraz do interesującego obszaru, wyrównuje jasność, usuwa część szumów.
  4. Analiza i decyzja modelu – model AI oblicza, czy obraz odpowiada klasie OK, czy którejś z klas NOK, czasem z dodatkowymi wskaźnikami pewności.
  5. Generacja sygnału – na podstawie wyniku aplikacja wysyła do PLC prosty stan: przepuść, odrzuć, zatrzymaj linię, zasygnalizuj alarm.

Między „produkt minął czujnik” a „wyrzutnik go zepchnął z taśmy” musi zmieścić się nie tylko obliczenie modelu, ale też margines bezpieczeństwa na komunikację i ewentualne powtórki. Dlatego decyzje o architekturze sprzętowej (edge vs serwer, jedna kamera vs system multi-camera) trzeba podejmować razem z automatykami, znając realne prędkości linii.

Gdzie kończy się AI, a zaczyna klasyczna wizja

W praktycznych projektach granica między „AI” a „zwykłą wizją” jest płynna. Często wygląda to tak:

  • klasyczne algorytmy (progowanie, szukanie krawędzi, dopasowanie szablonu) służą do stabilizacji obrazu: znalezienia produktu, wyrównania go, wycięcia obszarów zainteresowania,
  • model AI zajmuje się tym, co naprawdę trudne do opisania regułami: rozpoznaniem zróżnicowanych rys, plam, mikrouszkodzeń, subtelnych zmian tekstury.

Z punktu widzenia utrzymania systemu takie hybrydowe podejście ma zaletę: zmiana formatu produktu (np. inny wariant obudowy) wymaga często tylko dostosowania części klasycznej, bez pełnego przeuczania modelu. Mit „albo wszystko na AI, albo wcale” w produkcji rzadko się sprawdza – mieszanka metod daje zwykle lepszy kompromis między elastycznością a stabilnością.

Integracja z PLC i systemami wyższego poziomu

Cyfrowy strażnik jakości musi mówić językiem, który rozumie reszta fabryki. Kluczowe są:

  • interfejs do sterownika – sygnały OK/NOK, kody błędów, informacje o trybie pracy (auto/serwis); dobrze, jeśli są proste i jednoznaczne,
  • integracja z MES/ERP – możliwość powiązania wyników inspekcji z numerem partii, zleceniem produkcyjnym, parametrami maszyny,
  • mechanizm śledzenia sztuki – jeśli element odrzucany jest fizycznie kilka metrów dalej, system musi „pamiętać”, która sztuka jest którą, aby nie pogubić danych.

Bez tego system wizyjny staje się „czarną skrzynką”: niby coś odrzuca, ale trudno powiązać to z konkretnym gniazdem, narzędziem czy partią materiału. Gdy architektura jest przemyślana, dane z cyfrowego strażnika stają się cennym źródłem informacji do doskonalenia całego procesu, a nie tylko środkiem do wyłapywania odpadów.

Dane treningowe z produkcji – serce całego przedsięwzięcia

Dlaczego „więcej obrazów” nie zawsze znaczy „lepiej”

Popularny slogan brzmi: „AI potrzebuje ogromnych ilości danych”. W kontroli jakości bardziej precyzyjne byłoby zdanie: AI potrzebuje dobrze dobranych danych. Kilka typowych pułapek:

Jakość ponad ilość: jak selekcjonować zdjęcia

Surowa paczka kilku tysięcy zdjęć z linii rzadko nadaje się wprost do treningu. Najpierw trzeba ją uporządkować. Kluczowe jest, żeby model zobaczył rzeczywiste zróżnicowanie tego, co będzie widział w pracy, a nie 500 prawie identycznych ujęć jednego wariantu.

Przy pierwszym przejściu dobrze jest ręcznie lub półautomatycznie odsiać obrazy:

  • rozmyte, z poruszeniem lub ewidentnie źle wyzwolone (produkt „w połowie kadru”),
  • z zasłoniętym detalem (ręka operatora, inny element na pierwszym planie),
  • z nietypowymi warunkami oświetlenia, które nie wystąpią w docelowej konfiguracji (np. słońce z boku przed zamontowaniem osłon).

Mit jest taki, że „model sam sobie poradzi, byle miał dużo zdjęć”. W praktyce byle jakie dane powodują, że algorytm uczy się głupstw: reaguje na cień operatora zamiast na rysę albo na numer markera w kadrze zamiast na brak elementu.

Drugi krok to zbalansowanie klas. Jeśli 99% obrazów to OK, a 1% to NOK, model „nauczy się” zgadywać zawsze OK i osiągnie imponujące 99% trafień na papierze, a w realu przepuści większość wad. Rozwiązania są proste, ale wymagają dyscypliny:

  • zbieranie dodatkowych przykładów wadliwych sztuk (celowe „polowanie” na nie na linii),
  • dobór reprezentatywnej próbki OK, zamiast wrzucania wszystkiego jak leci,
  • ewentualne techniki ważenia klas lub nadpróbkowania po stronie modelu.

Oznaczanie danych: kto decyduje, co jest „wada”

Najdroższym etapem bywa nie sprzęt, ale labelowanie, czyli przypisanie każdemu obrazowi poprawnej etykiety: OK, typ wady, poziom krytyczności. Tu ujawnia się, jak bardzo różnią się spojrzenia jakości, produkcji i klienta.

Dobry proces oznaczania zwykle wygląda tak:

  1. Wspólne wypracowanie „słownika wad” – kilka godzin z gotowymi sztukami na stole, aby ustalić nazewnictwo, priorytety i granice akceptacji (np. rysa < 5 mm w niewidocznej strefie = OK).
  2. Pilotowe oznaczenie kilkuset zdjęć przez 2–3 osoby niezależnie, a następnie porównanie rozbieżności – to najszybszy sposób na wykrycie niejasnych kryteriów.
  3. Stworzenie krótkiej instrukcji etykietowania ze zdjęciami przykładów: co zaliczamy do jakiej kategorii, co traktujemy jako „szarą strefę” do decyzji eksperta.

Rzeczywistość często obala mit, że „inspektorzy zawsze oceniają tak samo”. Już po pierwszej serii okazuje się, że w 10–20% przypadków dwie osoby podejmują różne decyzje. Jeśli ludzie się nie zgadzają, model nie ma szans „nauczyć się” jednoznacznej prawdy.

Przy bardziej złożonych wadach dobrym kompromisem jest drabinka decyzji:

  • operator etykietuje podstawowe klasy (OK / NOK + ogólny typ wady),
  • wątpliwe przypadki trafiają do „koszyka” eksperta jakości,
  • ekspert weryfikuje tylko niewielki, ale trudny procent danych.

Takie podejście przyspiesza pracę i jednocześnie podnosi spójność, bo to nie pojedyncza osoba „ustawia” całą bazę pod swoje własne kryteria.

Równowaga między „laboratorium” a halą produkcyjną

Źródło danych często budzi spory: czy budować dataset na sterylnym stanowisku testowym, czy od razu na linii? Prawda leży pośrodku.

Stanowisko laboratoryjne (makieta z kamerą i lampą, kilka serii próbnych) daje kontrolę nad oświetleniem i pozycją detalu. Pozwala szybko sprawdzić, czy wada w ogóle jest „widoczna” dla optyki i jakich rozdzielczości potrzeba. To dobre miejsce na pierwsze eksperymenty z modelem.

Dane z realnej linii odsłaniają całą resztę: mikrowibracje, zabrudzenia szyby, odblaski od elementów obok, drobne przesunięcia produktu. Jeśli model był trenowany wyłącznie na laboratoryjnych ujęciach, „rozjedzie się” przy pierwszym spotkaniu z normalną produkcją.

Rozsądny scenariusz to krótka faza laboratoryjna, a następnie szybkie przejście do zbierania danych z docelowego stanowiska, nawet jeśli na początku oznacza to trochę gorszą jakość obrazów. Model musi poznać prawdziwy świat, nie tylko idealne zdjęcia z katalogu.

Jak radzić sobie z rzadkimi wadami

Największy ból głowy daje kategoria „wada krytyczna, ale występująca raz na kilka tysięcy sztuk”. Trudno zgromadzić sensowną liczbę przykładów, a jednocześnie nie można sobie pozwolić na przepuszczenie ani jednej.

Praktycznie stosuje się kilka trików:

  • celowe generowanie wad – kontrolowane uszkadzanie detali, odkręcanie elementów, odklejanie etykiet, aby wyprodukować serię „wzorów” dla modelu,
  • transfer learning – wykorzystanie modelu wytrenowanego na pokrewnych defektach (np. rysy, wgniecenia) i delikatne douczenie na śladowej liczbie przykładów nowej wady,
  • modele anomalii – zamiast uczyć się wszystkich możliwych NOK, algorytm uczy się bardzo dobrze klasy OK, a potem zgłasza wszystko, co od niej odbiega.

Mit głosi, że „bez setek przykładów każdej wady nic się nie da zrobić”. W praktyce przy rzadkich, groźnych defektach częściej stosuje się strategie mieszaną: AI zaznacza podejrzane sztuki, ale ostateczną decyzję podejmuje człowiek.

Aktualizowanie danych: model też się starzeje

Proces i produkt nie są stałe. Zmieniają się dostawcy, formy, lakiery, nawet ścieralność narzędzi. Model, który świetnie działał rok temu, może dziś częściej się mylić, choć nikt „oficjalnie” nic nie zmieniał.

Dlatego warto przygotować plan konserwacji danych równie konkretny jak plan przeglądów maszyn:

  • regularny przegląd statystyk: odsetek fałszywych odrzuceń, fałszywych przepuszczeń, struktura typów wad,
  • oznaczanie próbek z bieżącej produkcji co kilka tygodni i porównywanie wyników z modelem,
  • jasne kryteria, kiedy model wymaga douczenia (np. po zmianie dostawcy kluczowego komponentu).

Niedocenianym elementem jest też archiwizacja wersji datasetu. Jeśli po przeuczeniu model nagle pogorszy wyniki, trzeba móc wrócić do poprzedniego zbioru i sprawdzić, gdzie wkradł się problem: w danych, oznaczeniach czy samej architekturze.

Cykl ulepszania: sprzężenie zwrotne z hali

Najbardziej żywe systemy AI na produkcji korzystają z tego, co fabryka generuje każdego dnia: zgłoszeń operatorów, reklamacji, przypadków „model się pomylił”. Zamiast traktować to jako porażkę, można zbudować z tego mechanizm rozwoju.

W praktyce sprawdza się prosty schemat:

  1. Oznaczenie przypadków spornych – jeśli operator nie zgadza się z decyzją strażnika, jednym przyciskiem zaznacza sztukę jako „do przeglądu”.
  2. Regularna sesja przeglądowa – raz na tydzień / dwa tygodnie ktoś z jakości ocenia te przypadki i dopisuje je do bazy jako nowe, dobrze opisane przykłady.
  3. Okresowe douczanie modelu na tej „kolekcji trudnych przypadków”, przy zachowaniu starego datasetu jako punktu odniesienia.

W ten sposób cyfrowy strażnik uczy się dokładnie tego, co dla danej fabryki jest najtrudniejsze i najbardziej kosztowne. Zamiast rosnąć w nieskończoność, zbiór danych ewoluuje w kierunku jakości – mniej duplikatów, więcej wartościowych, „brzegowych” przykładów.

Bezpieczeństwo i poufność obrazów produkcyjnych

Obrazy z linii często zawierają know-how: konstrukcję detalu, elementy narzędzi, czasem nawet fragmenty dokumentów na stanowisku. Wraz z wejściem AI pojawia się obawa, że dane „uciekną do chmury” albo w niekontrolowane miejsce.

Dobrym punktem wyjścia jest kilka prostych zasad organizacyjnych i technicznych:

  • jasne reguły, co wolno fotografować (np. zakaz obejmowania w kadrze dokumentacji, monitorów HMI, twarzy ludzi),
  • anonimizacja obrazu przed opuszczeniem fabryki – maskowanie stref wrażliwych, znaków, numerów narzędzi,
  • lokalne przechowywanie danych treningowych lub szyfrowany transfer, jeśli korzysta się z zewnętrznych zespołów lub mocy obliczeniowej w chmurze,
  • kontrola dostępu – nie każdy musi widzieć wszystkie zdjęcia, szczególnie z linii dla kluczowych klientów.

Mit „AI = chmura” nie jest prawdziwy. Większość projektów kontroli wizyjnej można zrealizować całkowicie on-premise, a jeśli chmura jest używana, to z precyzyjnie ograniczonym zakresem danych i czasem przechowywania.

Praktyczny przykład obiegu danych w projekcie

Dla zobrazowania, jak może wyglądać zdrowy obieg danych, wystarczy prosty scenariusz z jednej linii montażowej:

  • na etapie POC zbierane jest kilka tysięcy zdjęć z docelowego stanowiska, w tym osobna paczka z celowo „zepsutymi” detalami,
  • zespół jakości przygotowuje słownik wad i etykietuje pierwszą porcję danych; powstaje wersja 1.0 datasetu,
  • model jest trenowany i wdrażany pilotażowo; system zapisuje obrazy wszystkich sztuk, gdzie decyzja była NOK lub gdzie model był blisko progu decyzyjnego,
  • co tydzień z tej paczki wybierane są próbki do ponownego oznaczenia; powstaje wersja 1.1, 1.2 itd.,
  • co kilka cykli model jest douczany na rozszerzonym zbiorze, a stara wersja pozostaje jako „bezpieczne koło ratunkowe”.

Taki rytm powoduje, że cyfrowy strażnik jakości nie jest jednorazową inwestycją, ale żywym elementem procesu, którego skuteczność można mierzyć, poprawiać i świadomie korygować, gdy warunki na produkcji się zmieniają.

Pracownice fabryki tekstyliów kontrolują jakość zwiniętych ręczników
Źródło: Pexels | Autor: EqualStock IN

Najważniejsze punkty

  • Tradycyjna kontrola jakości oparta na ludzkim oku, próbkowaniu i prostych czujnikach nie nadąża za rosnącą złożonością produktów i prędkością linii – to ograniczenie biologii, a nie kompetencji operatorów.
  • Cyfrowy strażnik jakości (wizja maszynowa + algorytmy) odpowiada na presję „zero defektów”, wymóg pełnej dokumentacji każdej sztuki oraz coraz krótsze serie i liczne warianty wyrobów.
  • Mit „wystarczy dobry operator” przegrywa z rzeczywistością: człowiek nie obejrzy tysięcy detali na godzinę z niezmienną uwagą, podczas gdy system AI działa 24/7 bez zmęczenia i spadku koncentracji.
  • Rozwój tanich kamer, oświetlenia LED, wydajnych komputerów edge oraz bibliotek ML (OpenCV, TensorFlow, PyTorch, SDK producentów kamer) zbił barierę kosztów i złożoności – to już nie projekty tylko za setki tysięcy euro.
  • Mit, że AI w jakości jest wyłącznie „gadżetem dla korporacji”, nie wytrzymuje zderzenia z praktyką: opłaca się także średnim i małym zakładom, zwłaszcza tam, gdzie pojedyncza wada oznacza zwrot partii lub utratę kontraktu.
  • Algorytmy wykrywają wady częściej niż człowiek, bo rejestrują mikroróżnice w teksturze i jasności, działają w stałych warunkach i mogą być ciągle kalibrowane oraz douczane na nowych przykładach usterek.
  • Opracowano na podstawie

  • ISO 2859-1: Sampling procedures for inspection by attributes – Part 1: Sampling schemes indexed by acceptance quality limit (AQL). International Organization for Standardization (1999) – Klasyczne podejście do kontroli jakości opartej na próbkowaniu AQL.
  • ISO 9001: Quality management systems – Requirements. International Organization for Standardization (2015) – Wymagania dot. dokumentowania kontroli jakości i śledzenia wyrobów.
  • Vision Systems: Fundamentals and Applications. Springer (2017) – Przegląd przemysłowych systemów wizyjnych, kamer, optyki i oświetlenia.