ZGŁOŚ PROBLEM
ODSYŁACZE
Link do zasobu (skrót):
http://zasobynauki.pl/zasoby/20998Link do zasobu (repozytorium):
https://id.e-science.pl/records/20998Metadane zasobu
Tytuł |
Decyzje statystyczne przy nieprecyzyjnych danych: zastosowanie w kontroli jakości |
---|---|
Osoby |
Autorzy:
Przemysław Wojciech Grzegorzewski
Partner: Instytut Badań Systemowych PAN w Warszawie |
Opis |
Standardowe procedury statystyczne konstruowane były przy założeniu posiadania precyzyjnie określonych i obiektywnych danych oraz posługiwania się jednoznacznymi kryteriami oceny, a także przy założeniu precyzyjnie zdefiniowanych wymagań. W praktyce założenia te często są spełnione, bądź też ich przyjęcie prowadzi do modelu opisującego rzeczywistość z zadowalającym przybliżeniem. Jednakże ograniczenie się wyłącznie do modeli, których wszystkie parametry są precyzyjnie określone, pociąga za sobą czasem konieczność dokonywania nadmiernych uproszczeń i nieuzasadnionych założeń. Sytuacja taka ma miejsce np. wówczas, gdy w uzyskiwaniu informacji i formułowaniu ocen znaczącą rolę odgrywa człowiek, którego naturalnym środkiem komunikowania się jest język potoczny i który rozumuje zwykle w kategoriach przybliżonych. W statystycznej kontroli jakości spotykamy się często z przypadkami nieprecyzyjnego definiowania wymagań jakościowych, jak i nieprecyzyjnej oceny kontrolowanych wyrobów. Ten stan rzeczy spowodowany może być wielorakimi czynnikami natury epistemologicznej, lingwistycznej, ekonomicznej itp. Przejście od tradycyjnych modeli „twardych”, czyli takich, w których wszystkie dane, relacje i ograniczenia są precyzyjnie określone, do modeli „miękkich”, dopuszczających pewien brak precyzji, wymagało nowej teorii i nowych narzędzi analitycznych. Dostarczyła je teoria zbiorów rozmytych, zapoczątkowana pionierską pracą Zadeha z 1965 roku. Zastosowanie teorii zbiorów rozmytych w statystyce, to dziedzina stosunkowo nowa. Wiele zagadnień pozostaje wciąż na etapie wstępnym - definiowania i systematyzacji. Brak też powszechnie akceptowanej metodologii. Konieczne jest więc podjęcie prac nad systematyzacją proponowanych rozwiązań, uzupełnieniem istniejących luk oraz wypracowaniem takich procedur, które z jednej strony miałyby mocną podstawę teoretyczną, a z drugiej, mogłyby znaleźć zastosowanie w praktyce. Niniejsza rozprawa poświęcona jest jednemu z dwóch podstawowych działów statystyki - teorii weryfikacji hipotez - wraz z ważnym działem zastosowań, jakim jest statystyczna kontrola jakości. Dokonano w niej formalizacji i systematyzacji zagadnienia weryfikacji hipotez w warunkach rozmytości oraz omówiono znane testy i procedury statystycznej kontroli jakości skonstruowane z myślą o sytuacjach, w których występują nieprecyzyjne dane, hipotezy lub wymagania. Podano także ogólną metodę konstrukcji testów statystycznych dla nieprecyzyjnych danych, sposób budowy testu dla nieprecyzyjnych hipotez oraz metodę konstrukcji testu dla nieprecyzyjnych danych i nieprecyzyjnych hipotez, wykorzystującego wskaźnik konieczności. Zaproponowane testy statystyczne mają wiele zalet, a w szczególności, nie mają wad znanych dotąd procedur i są wystarczająco ogólne, zarówno w sensie typu dopuszczalnych danych, jak i dopuszczalnego zakresu zadań testowych. Uzyskane wyniki teoretyczne zastosowano przy budowie nowych procedur statystycznej kontroli jakości, w szczególności: planu badania według wartości liczbowej oraz dwóch nowych kart kontrolnych, do konstrukcji których użyto wspomniany test rozmyty dla danych rozmytych oraz test wykorzystujący wskaźnik konieczności. Rozprawa zawiera również pewne wyniki dotyczące bezpośrednio teorii zbiorów rozmytych, a konkretnie, porządkowania liczb rozmytych. Jak się wydaje, zakres możliwych zastosowań owych wyników wykracza znacznie poza teorię weryfikacji hipotez. (Polski) |
Słowa kluczowe | "hipoteza"@pl, "decyzje statystyczne"@pl, "testowanie hipotez"@pl, "testowanie hipotez statystycznych"@pl, "dane rozmyte"@pl, "statystyczna kontrola jakości"@pl, "karty kontrolne"@pl, "plan badania"@pl, "statistical hypothesis testing testi"@en, "fuzzy data"@en, "control charts"@en, "statystczna kontrola jakości"@pl |
Klasyfikacja |
Typ zasobu:
praca dyplomowa Dyscyplina naukowa: dziedzina nauk technicznych / informatyka (2011) Grupa docelowa: naukowcy, studenci, przedsiębiorcy Szkodliwe treści: Nie |
Charakterystyka |
Miejsce powstania: Warszawa
Czas powstania: 1997 Liczba stron: 109 Promotor: Olgierd Hryniewicz Język zasobu: Polski Lokalizacja: Warszawa |
Licencja | CC BY-SA 4.0 |
Informacje techniczne |
Deponujący: Justyna Kupczak Data udostępnienia: 18-10-2018 |
Kolekcje | Kolekcja Instytutu Badań Systemowych PAN w Warszawie, Kolekcja e-Biblio IBS PAN |
Cytowanie
Przemysław Wojciech Grzegorzewski. Decyzje statystyczne przy nieprecyzyjnych danych: zastosowanie w kontroli jakości. [praca dyplomowa] Dostępny w Atlasie Zasobów Otwartej Nauki, . Licencja: CC BY-SA 4.0, https://creativecommons.org/licenses/by-sa/4.0/legalcode.pl. Data dostępu: DD.MM.RRRR.
Podobne zasoby
Doświadczenie eksperckie - Anna Koziatek
ekspert, Akademia Wychowania Fizycznego we Wrocławiu, dziedzina nauk o kulturze fizycznej (2011)
Karta Kendalla jako nieparametryczne narzędzie do wykrywania zależności pomiędzy kolejnymi pomiarami procesów
Anna Olwert, praca dyplomowa, Instytut Badań Systemowych PAN w Warszawie, dziedzina nauk technicznych / automatyka i robotyka (2011)
Metody analizy systemowej i zarządzania. Homogeneity algorithm for modelling regional structure (RB-1997-36-01)
Jerzy Hołubiec, Grażyna Petriczek, artykuł, rozdział, Instytut Badań Systemowych PAN w Warszawie, Dziedzina nauk ścisłych i przyrodniczych / matematyka (2018)