Metody zarządzania i sterowania jakością

Slides:



Advertisements
Podobne prezentacje
METODY I TECHNIKI ZARZĄDZANIA JAKOŚCIĄ
Advertisements

Regresja i korelacja materiały dydaktyczne.
Leszek Smolarek Akademia Morska w Gdyni 2005/2006
ESTYMACJA PRZEDZIAŁOWA
Test zgodności c2.
Kontrola jakości wykonywanych napraw i remontów.
Statystyczna kontrola jakości badań laboratoryjnych wg: W.Gernand Podstawy kontroli jakości badań laboratoryjnych.
PPTOK Projektowanie Procesów Technologicznych Obróbki Skrawaniem
BUDOWA MODELU EKONOMETRYCZNEGO
Test zgodności Joanna Tomanek i Piotr Nowak.
JAKOŚĆ PRODUKTU - USŁUGI
zarządzanie produkcją
Analiza współzależności
Analiza współzależności
Struktura SYSTEMU Jacek Węglarczyk.
Uniwersytet Ekonomiczny we Wrocławiu
Statystyka w doświadczalnictwie
Statystyka w doświadczalnictwie
Kontrola jakości.
Podstawowe pojęcia prognozowania i symulacji na podstawie modeli ekonometrycznych Przewidywaniem nazywać będziemy wnioskowanie o zdarzeniach nieznanych.
Dzisiaj na wykładzie Regresja wieloraka – podstawy i założenia
Analiza korelacji.
Niepewności przypadkowe
Korelacje, regresja liniowa
Metody Symulacyjne w Telekomunikacji (MEST) Wykład 6/7: Analiza statystyczna wyników symulacyjnych  Dr inż. Halina Tarasiuk
Średnie i miary zmienności
AGH Wydział Zarządzania
Wykonał :Patryk Krzak.
Hipotezy statystyczne
Państwowa Wyższa Szkoła Zawodowa w Nysie Instytut Zarządzania
Konstrukcja, estymacja parametrów
Seminarium 2 Krzywe kalibracyjne – rodzaje, wyznaczanie, obliczanie wyników Równanie regresji liniowej Współczynnik korelacji.
i jak odczytywać prognozę?
Ekonometria. Co wynika z podejścia stochastycznego?
BADANIE STATYSTYCZNE Badanie statystyczne to proces pozyskiwania danych na temat rozkładu cechy statystycznej w populacji. Badanie może mieć charakter:
KARTY KONTROLNE PRZY OCENIE LICZBOWEJ
Elementy Rachunku Prawdopodobieństwa i Statystyki
Bezpieczny zapas wysokiego ryzyka – jak go określić?
Statistical Process Control Statystyczne Sterowanie Procesem
Hipotezy statystyczne
Systemy zapewnienia jakości
Elementy Rachunku Prawdopodobieństwa i Statystyki
Planowanie przepływów materiałów
Planowanie badań i analiza wyników
Regresja wieloraka.
Treści multimedialne - kodowanie, przetwarzanie, prezentacja Odtwarzanie treści multimedialnych Andrzej Majkowski.
Dopasowanie rozkładów
Wnioskowanie statystyczne
Statystyka medyczna Piotr Kozłowski
Statystyka w doświadczalnictwie Wydział Technologii Drewna SGGW Studia II stopnia Wykład 3.
JAKOŚĆ TECHNICZNA WĘGLA
Statystyczna analiza danych w praktyce
Statystyczna analiza danych
Statystyczna analiza danych
Logistyka – Ćwiczenia nr 6
Rozkłady statystyk z próby dr Marta Marszałek Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium.
Weryfikacja hipotez statystycznych „Człowiek – najlepsza inwestycja”
Modele nieliniowe sprowadzane do liniowych
STATYSTYKA – kurs podstawowy wykład 11
Estymacja parametryczna dr Marta Marszałek Zakład Statystyki Stosowanej Instytut Statystyki i Demografii Kolegium Analiz.
Zarządzanie produkcją - ćwiczenia
Niepewności pomiarów. Błąd pomiaru - różnica między wynikiem pomiaru a wartością mierzonej wielkości fizycznej. Bywa też nazywany błędem bezwzględnym.
Struktury i algorytmy wspomagania decyzji
Rozkład z próby Jacek Szanduła.
Statystyka matematyczna
Regresja wieloraka – bada wpływ wielu zmiennych objaśniających (niezależnych) na jedną zmienną objaśnianą (zależą)
Jednorównaniowy model regresji liniowej
Analiza niepewności pomiarów Zagadnienia statystyki matematycznej
Analiza niepewności pomiarów
Projekt: „LOGISTYKA STAWIA NA TECHNIKA – podnoszenie kwalifikacji zawodowych uczniów zawodu technik logistyk poprawiające ich zdolności do zdobycia zatrudnienia”
Zapis prezentacji:

Metody zarządzania i sterowania jakością Wykład 2 – SPC (2h)

Geneza Jako pierwszy twierdzenia rachunku prawdopodobienstwa w kontroli jakości zastosował W.A.Shewhart. Generalnie uważa się, że jest on tworcą podstaw wspłczesnej teorii kontroli jakości. Jedną, z przydatnych cech oceny statystycznej wyrobów i procesów jest mozliwość sterowania procesem i jego ocena na podstawie wyników dokonanych na niewielkiej części wyrobów, tzw. próbie. Z tego względu bardzo celowe jest stosowanie terminu: SPC-,,statystyczne sterowanie procesem". Cała istota statystycznej kontroli jakości sprowadza się do skutecznego powiązania skutków z przyczynami i doboru odpowiedniej metody, uzależnionej od dostępu do danych procesowych, dostępności modeli, potrzeb ekonomicznych, a także od relatywnego stopnia częstości występowania przypadkowych i nieznanych przyczyn zakłóceń.

Definicja SPC Statystyczne sterowanie procesem (SPC) jest to sterowanie jakością z wykorzystaniem metod statystycznych, dzięki którym możliwe jest ciągłe doskonalenie jakości procesów produkcji lub usług. W praktyce oznacza to wykorzystanie wszystkich narzędzi zarządzania jakością, szczególnie tych z grupy narzędzi tradycyjnych, a także metod statystycznej kontroli, metod planowania eksperymentów, metod prewencyjnych itp.

Definicja SPC Statystyczne sterowanie procesem (ang. SPC: Statistical Process Control) to bieżąca, czyli realizowana w rzeczywistym czasie przebiegu (online) – kontrola procesu, służąca do wykrywania jego ewentualnych rozregulowań i w konsekwencji służąca stałej poprawie jego jakości. W ramach SPC bada się z jaką naturalną zmiennością, czyli z jakim rozproszeniem wyników pomiaru wykonywany jest proces produkcyjny i jaka jest jego zdolność do spełnienia wymagań określonych specyfikacjami.

Przyczyny losowe (przypadkowe) Przyczyny wyznaczalne (systematyczne) Źródła zmienności W każdym procesie występują odchylenia od wartości pożądanej. Istnieje wiele potencjalnych przyczyn odchyleń w procesie pracy, np. w procesie produkcyjnym są to m.in.: system zarządzania, dobór narzędzi, technologia, surowce, maszyny, błędy pracowników Natomiast, jeśli chodzi o przyczyny tych wszystkich odchyleń to wyróżnia się dwa źródła zmienności procesu: Przyczyny losowe (przypadkowe) Przyczyny wyznaczalne (systematyczne)

Źródła zmienności Granica naturalna Linia środkowa Granica nauralna Jeszcze do niedawna rozumiano definicję jakości jako utrzymanie procesu w granicach tolerancji (specyfikacji) założonych przez konstruktora. Wszystkie produkty znajdujące się wewnątrz granic tolerancji określane były jako równie dobre. Nie rozróżniano produktów, których wartości rzeczywiste leżą dokładnie w środku przedziału tolerancji i takich, których wartości leżą jeszcze wewnątrz, ale tuż przy niebezpiecznych granicach. Nikomu do głowy nie przychodziło ulepszać takiego procesu produkcyjnego. Takie myślenie narzuca jednak wiele wątpliwości. Wymagania współczesnego rynku w osobie klienta spowodowały, że do problemu jakości należy podejść zupełnie inaczej. Nie wystarczy już utrzymanie procesu w założonym przedziale specyfikacji. Dąży się do jego ciągłego udoskonalania poprzez minimalizację wielkości rozrzutu i centralizację wartości docelowych (oczekiwanych).

Funkcja strat Według Taguchiego strata to wielkość ciągła, której minimum odpowiada wartości docelowej. Wartość docelowa jest parametrem zależnym od przeznaczenia wyrobu (np. średnica wałka lub otworu), a jego wartość optymalna odpowiada oczekiwaniu klienta. Przy poprawnym planowaniu i realizacji produkcji wartość docelowa (najczęściej jest to środek przedziału tolerancji T=USL-LSL) odpowiada wartości oczekiwanej ze specyfikacji produktu. Im bardziej cecha wyrobu odbiega od zadanej wartości docelowej, tym większa jest strata spowodowana taką odchyłką. Na podstawie tego modelu widać jak ważne jest ukierunkowanie procesów wytwarzania na wartość docelową, minimalizacja rozrzutu i ograniczenie w ten sposób strat do minimum.

Funkcja strat Straty powstałe w procesie w zależności od wielkości rozrzutu: a) pewna liczba produktów leży poza granicami specyfikacji powodując straty, b) bardzo mały rozrzut procesu produkcyjnego, straty minimalne.

Reguła „sześć sigma” W procesach, w których jakość jest sprawą priorytetową, stosuje się tzw. regułę 6σ (sześć sigma), wg której w granicach tolerancji powinien zawierać się proces o rozrzucie ±6σ. Powoduje to, że tradycyjnie rozumiany przedział ±3σ zajmuje tylko część przedziału T, z zapasem ±1,5σ do granic tolerancji na tzw. dryfowanie średniej x procesu. Jest to rozsądne podejście, z uwagi na to, że nigdy nie uda się uzyskać średniej x zgodnej w 100% z wartością docelową. Efektem takiego nowego podejścia jest produkcja, nie tylko bezbrakowa, ale również podwyższenie trwałości i niezawodności wykonywanych wyrobów. Należy jednak pamiętać, że utrzymanie bardzo wąskiego rozrzutu, zgodnie z powyższą regułą, wiąże się z dodatkowymi udoskonaleniem procesu (np. z zakupem nowych maszyn i urządzeń).

Rozkład normalny zmienności cechy Reguła „sześć sigma” Rozkład normalny zmienności cechy

Reguła „sześć sigma” Rozkład normalny zmienności cechy z naniesionymi wielokrotnościami σ DGS – dolna granica specyfikacji; LSL- wartość średnia procesu; GGS – górna granica specyfikacji.

Reguła „sześć sigma” Parametr σ jest tzw. odchyleniem standardowym procesu przedstawiającym wielkość rozproszenia rozpatrywanej cechy (np. długości ciętych prętów). Wyrażają go następujące zależności: gdzie: σ jest odchyleniem standardowym populacji generalnej o liczności N, zaś s - odchyleniem standardowym n - elementowej próbki losowej pobranej z populacji generalnej

Reguła „sześć sigma” Budując kartę kontrolną korzysta się z parametru s, gdyż mamy do czynienia z wąskolicznymi próbkami pomiarowymi. Parametr s jest również podstawą do oceny jakości partii wyrobów, którą dostarcza poddostawca. Wówczas oblicza się wartość s losowo pobranej próbki i traktuje ją jako estymator (oszacowanie) niewiadomego odchylenia standardowego σ całej partii. Za pomocą parametru s można więc oszacować, jaka liczba dostarczonych wyrobów wykracza poza wyznaczoną tolerancję. Wg konwencji Shewharta w przedziale ±3σ (reguła 3 sigma) mieści się praktycznie cały proces, tzn. 99,73% wyników pomiarów. Przeliczając to na ppm (parts per million) otrzymuje się 2700 sztuk wadliwych na milion. Zgodnie z regułą 6 sigma dla procesu przesuniętego o 1,5 σ w prawo lub w lewo otrzymuje się 3,4 ppm.

Reguła „sześć sigma” Histogram może jednak wskazać na wyraźne odstępstwo od rozkładu normalnego. Testowanie normalności rozkładu można oprzeć np. na teście Shapiro-Wilka lub teście χ2. Bardzo skutecznym środkiem graficznego sprawdzenia czy rozkład jest normalny jest np. normalny wykres prawdopodobieństwa. Jeżeli występuje duża zbieżność między danymi i linią prostą wówczas możemy wnioskować, że dane empiryczne zbliżają się do rozkładu normalnego. Jeżeli zaś hipoteza o normalności rozkładu zostaje odrzucona, należy dopasować do danych inny rozkład i oszacować jego parametry.

Etapy wprowadzenia SPC Aby proces produkcyjny nadzorować za pomocą SPC należy zgodnie z kołem Deminga (Plan-Do-Check-Act): PLAN - zaplanować czynności niezbędne do nadzorowania procesu: wyselekcjonować operacje technologiczne, uznawane za ważne bądź kluczowe, które będą poddane nadzorowaniu (np. poprzez użycie reguły Pareto) określić ich specyfikacje i charakterystyki (wartości docelowe, tolerancje) dobrać metody, procedury oraz narzędzia pomiarowe dobrać odpowiednie metody statystyczne dla celów nadzorowania (rozkład zmienności mierzonej cechy, wskaźniki zdolności, rodzaje kart kontrolnych) ściśle określić liczności próbek do pomiaru oraz sposób i częstotliwość ich pobierania (przykładowo na etapie oceny zdolności krótkoterminowej w fazie “rozgrzewania procesu” - 20 próbek po 5 elementów każda) opracować procedury postępowania dla ewentualnych działań korygujących i zabezpieczających proces na przyszłość

Etapy wprowadzenia SPC DO - zrealizować proces i wstępnie go ocenić: rejestrować dane z pomiarów (co najmniej 20 próbek po 5 elementów każda) sporządzić zaplanowaną wcześniej kartę kontrolną (np. X- R lub X- s) wyznaczyć granice interwencji (kontrolne: GGK i DGK i ostrzegania: GGO i DGO)

Etapy wprowadzenia SPC CHECK - sprawdzić stabilność i zdolność procesu: ocenić stabilność procesu na tle granic interwencji poprzez ocenę rozrzutu przypadkowego i przesunięcia systematycznego średniej procesu. Jeżeli proces jest niestabilny - należy go udoskonalić i wrócić do punktu DO 1 wyznaczyć model rozkładu zmienności mierzonej cechy (w praktyce, w przypadku procesów ukierunkowanych na wartość docelową, najczęściej jest to rozkład normalny Gaussa) wyznaczyć wartości wskaźnika zdolności Cp i wycentrowania Cpk (jeżeli rozkład odbiega od normalnego, wówczas należy zastosować w obliczeniach współczynników metodę tzw. udziałów procentowych. ocenić zdolność procesu (Cp) i jego wyregulowanie (Cpk). Jeżeli średnia procesu znacznie odbiega od wartości docelowej (Cpk<1), to już na tym etapie, jeśli to możliwe należy go wyregulować. Jeśli proces jest niezdolny - należy go udoskonalić i wrócić do punktu DO 1

Etapy wprowadzenia SPC ACT - działać: ciągle doskonalić proces poprzez jego nadzorowanie. W przypadku np. przezbrojenia maszyny i ponownego jej nastawienia na wartość docelową, ponownie ocenić stabilność i zdolność procesu wytwórczego, czyli wrócić do punktu DO 1.

Etapy wprowadzenia SPC Rodzaj użytych metod statystycznych zależy od fazy kwalifikacji maszyn i procesów produkcyjnych: podczas kupna i oddawania do użytku urządzeń produkcyjnych przed rozpoczęciem produkcji seryjnej po rozpoczęciu produkcji seryjnej

Etapy wprowadzenia SPC Kwalifikacja wstępna systemu i ocena procesu przed rozpoczęciem produkcji seryjnej są przedsięwzięciami jednorazowymi. Procesy te nazywane są też badaniem zdolności maszyn. Działania takie podejmowane są często offline (poza bieżącą produkcją). W tym celu wykonuje się pewną liczbę wyrobów, poddaje je pomiarowi, a następnie analizuje się wyniki pomiarów zgodnie z przyjętymi wcześniej zasadami. Jeżeli proces zostaje oceniony jako przydatny (zdolny), to na bazie uzyskanych wyników ustalane są wytyczne dla późniejszego nadzorowania procesu, np. parametry odpowiednich kart kontrolnych. W trakcie bieżącego procesu produkcji pomiary wykonuje się online i analizuje zgodnie z zasadami SPC.

Etapy wprowadzenia SPC Ocena maszyn i procesów produkcyjnych opiera się na danych zebranych przy użyciu systemu pomiarowego. Przed każdą analizą udowodniona musi być więc zdolność urządzenia pomiarowego (wskaźniki zdolności Cp i Cpk narzędzi pomiarowych. W wyniku pomiarów cech produktu lub procesu otrzymuje się szereg pomiarowy, który na ogół jest zbiorem nieuporządkowanych wartości. Wartości te należy ułożyć zgodnie z pewną zasadą, np. rosnąco. Tak zbudowana tabela pomiarów jest podstawą do sporządzenia tzw. histogramu i rozkładu zmienności mierzonej cechy.

Narzędzia i metody statystyczne SPC Podstawowe znaczenie odgrywają metody i narzędzia należące do tzw. wielkiej siódemki SPC w skład, której wchodzą: Diagram przebiegu procesu, Karta kontrolna, Arkusz analityczny (kontrolny), Diagram Pareto, Diagram Ishikawy, Histogram, Punktowy diagram korelacji.

Analiza zdolności procesu Metoda oceny procesów za pomocą tego typu miar zaproponowana została w USA przez Jurana w 1974 r. Analiza zdolności procesu odpowiada na pytanie, na ile proces jest zdolny spełniać zadanie wyznaczone specyfikacjami. Jakość procesów wytwarzania określona jest za pomocą tzw. wskaźników zdolności (WZ).

Analiza zdolności procesu Wskaźniki zdolności procesu (WZ) - określają stosunek rzeczywistej realizacji procesu wytwarzania do wartości założonej, tj.wartości nominalnej i granic tolerancji. Można także powiedzieć, że WZ odpowiada oczekiwanej proporcji części niezgodnych za specyfikacją. Idealny proces produkcyjny powinien utrzymać wartość charakterystyk jakości w wyznaczonym nominale i nie posiadać rozproszenia określanego np. 3 sigma. W rzeczywistości zmienność jest nieunikniona, tzn. wartość charakterystyk obserwowanych procesów będą posiadały pewne rozproszenie.

Analiza zdolności procesu Szacując zdolność jakościową procesu/maszyny wykorzystuje się dwa współczynniki: Cp i Cpk. Cp - określa ogólna zdolność jakościową procesu lub maszyny, zależność między zakresem tolerancji a odchyleniem standardowym. Cpk - określa położenie rozkładu cech względem średniej.

Analiza zdolności procesu Cp wskaźnik zdolności (rozrzutu): gdzie: USL oznacza górną, LSL dolną granicę specyfikacji (tolerancji T), σ jest odchyleniem standardowym zmienności własnej procesu (zwykle nieznanym i szacowanym na podstawie losowo pobranej próbki, wówczas oznacza się go symbolem s).

Analiza zdolności procesu Wskaźnik ten mówi jak się ma szerokość pasa tolerancji do szerokości przedziału zmienności własnej procesu i wskazuje na ile dany stabilny proces jest potencjalnie zdolny wykonywać wyspecyfikowane zadanie. Proces jest w oczywisty sposób niezdolny, jeśli Cp<1 (na ogół wymaga się, aby jego wartość była równa co najmniej 1,33). Jest to tzw. zdolność potencjalna, bowiem nie analizuje ona odstępstwa średniej procesu w stosunku do wartości docelowej. Wskaźnik ten jest wskaźnikiem jakościowej zdolności procesu określanym z uwzględnieniem czynników wpływających na ten proces. Jest wyznaczany w warunkach normalnej realizacji procesu (bez zapewnienia warunków optymalnych) i wyraża potencjalne możliwości procesu pełnienia wymagań jakościowych. Wskaźnik zdolności zawsze odnosi się do konkretnej cechy produktu. Dla procesu krytyczna jest ta cecha, której odpowiada najniższy wskaźnik zdolności.

Analiza zdolności procesu W przypadku, kiedy średnia wartość badanej cechy nie pokrywa się z wartością nominalną, wtedy liczba braków się zwiększa. Z tego powodu dla kolejnych przedmiotów z maszyny i procesu są definiowane korygowane wskaźniki rzeczywistej zdolności Cpk. Cpk wskaźnik wycentrowania procesu: gdzie: x oznacza wartość średnią procesu (np. średnią średnic serii 100 wyprodukowanych wałków).

Analiza zdolności procesu Zależność między Cp i Cpk w zależności od położenia średniej procesu względem nominalnej i granic tolerancji.

Analiza zdolności procesu Ocena procesu na podstawie wskaźników zdolności

Analiza zdolności procesu Przykład obliczania wskaźnika zdolności Po zmierzeniu średnicy zewnętrznej n = 50 elementów o specyfikacji 60±0,1 mm uzyskano wartość średnią x = 59,95 mm i odchylenie standardowe s = 0,01 mm. Ze specyfikacji wynika: Dolna Granica Specyfikacji DGS = 59,9 mm Górna Granica Specyfikacji GGS = 60,1 mm

Analiza zdolności procesu Rozkład zmienności cechy mierzonej w przykładzie na tle przedziału tolerancji

Zalety stosowania SPC Wykorzystując podstawy statystyki. SPC ostrzega kierownictwo i operatorów, że określony proces może zacząć produkować braki, jeżeli nic zostanie podjęta odpowiednia akcja korekcyjna celem przywrócenia stanu kontroli procesu. Stwierdzenie to oparte jest na założeniu, ze w produkcji powtarzalnej przy normalnych warunkach operacyjnych proces będzie produko­wał zgodnie z oczekiwaniami określonymi na podstawie danych historycznych. Poprzez pobranie próbek z procesu można z wysokim prawdopodobieństwem określić czy proces zachowuje się normalnie. Jeżeli stwierdzimy, że konieczna jest korekta procesu, zapobiegniemy w ten sposób wyprodukowaniu braków.

Zalety stosowania SPC SPC wspomagana przez komputery działające w czasie rzeczywistym jest obecnie najnowocześniejszą metodą zapewnienia wysokiej jakości. SPC minimalizuje stosowanie tradycyjnych i drogich metod zapewnienia jakości opartych na inspekcji. SPC umożliwia wczesne wykrycie problemów jakościowych, co prowadzi do redukcji poziomu odpadów i braków. SPC umożliwia lepsze wykorzystanie narzędzi i maszyn poprzez ciągle śledzenie poziomu procesu i wprowadzanie zmian w przypadkach, kiedy jest to konieczne. SPC umożliwia liczbowe określenie potencjalnej i rzeczywistej wydolności procesu, co prowadzi do lepszego doboru tolerancji wymiarowych, konstrukcji i metod produkcji. SPC umożliwia nadanie priorytetów problemom jakościowym związanym z procesami oraz ułatwia komunikację między kierownictwem, personelem wykonawczym i technicznym w celu rozwiązania tych problemów. SPC jest jednym z narzędzi umożliwiającym utrzymanie wysokiego poziomu jakości i niezawodności żądanych przez klientów.