Miary probabilistyczne, sieci neuronowe, zmienne symboliczne



Pobieranie 6,83 Mb.
Strona28/28
Data02.11.2017
Rozmiar6,83 Mb.
1   ...   20   21   22   23   24   25   26   27   28

6. Podsumowanie

Znalezienie wydajnych metod konwersji zmiennych symbolicznych do postaci numerycznej jest ważne dla wielu algorytmów klasyfikacyjnych. Metody konwersji prezentowane w tej pracy wzorowane są na mierze VDM. Na podstawie przeprowadzonych badań można stwierdzić, że prezentowane metody w wielu przypadkach dają poprawę wyników klasyfikacji oraz spadek błędu standardowego. Ponadto w przypadku FSM oraz C4.5 daje się także obserwować odpowiednio spadek liczby neuronów oraz liczby reguł potrzebnych do rozróżniania obiektów w testowanych bazach danych. Zastosowane metody zamiany wartości symbolicznych wartościami numerycznymi, pozwalają stosować dowolne klasyfikatory (oparte na statystyce, neuronowe i inne) na tak przygotowanych danych.


Wszystkie testowane bazy danych wraz z programem służącym do wstępnego przygotowywania danych znajdują się na dołączonej do pracy płycie CD-ROM.

7. Literatura

[1] Duch W, Grudziński K, Stawski G (2000) Symbolic features in neural networks. Fifth Conference on Neural Networks and Soft Computing, Zakopane, 6/2000, pp. 180-185.


[2] Walesiak M. Metody analizy danych marketingowych Wydawnictwo Naukowe PWN 1996.
[3] Gowda C K, Krishna G (1978) Disaggregative clustering using the concept of mutual nearest neighborhood IEEE Transactions on System, Man and Cybernetics no 12. 1978
[4] Smith S P Threshold validity for mutual neighborhood clustering IEEE Transactions on Pattern Analysis and Machine Intelligence vol 15 no 1, 1993.
[5] Gatnar E Symboliczne metody klasyfikacji danych Wydawnictwo Naukowe PWN 1998.
[6] Michalski R S, Stepp R E Concept based clustering versus numerical analysis. Technical report 1073 University of Illinois 1981
[7] Michalski R S, Stepp R E Learning from observations: conceptual clustering. Machine learning an artificial intelligence approach Tioga Palo Alto 1983a
[8] Fisher D Knowledge acquisition via incremental conceptual clustering. Machine learning no 2, 1987a
[9] Fisher D Knowledge acquisition via incremental conceptual clustering. Technical report 87-22 University of California, Irvine 1987b.
[10] Feigenbaum E A, Simon H A EPAM - like models of recognition and learning. Cognitive Science no 8, 1984.
[11] Lebowitz M. Experiments results with incremental concept formation UNIMEM. Machine learning no 2 1987.
[12] Kolodner J L Reconstructive memory: a computer model. Cognitive Science 7, 1983.
[13] Quinlan J R Learning efficient classification procedures. Machine learning an artificial intelligence approach Tioga Palo Alto 1983
[14] Duch W, Grąbczewski K The separability of split value criterion. 5th Conference on Neural Networks and Soft Computing, Zakopane, June 2000, pp. 201-208
[15] Quinlan J R C4.5 programs for machine learning. Morgan Kaufmann, San Mateo 1993.
[16] Wilson D. Randall, Tony R. Martinez (1996). Heterogeneous Radial Basis Functions, Proceedings of the International Conference on Neural Networks(ICNN’96), vol. 2, pp. 1263-1267, 1996.
[17] Wilson D. Randall, Tony R. Martinez (1996). Value Difference Metrics for Continuously Valued Attributes, International Conference on Artificial Intelligence, Expert Systems and Neural Networks (AIE’96), pp. 74-78 1996.
[18] Wilson D. Randall, Tony R. Martinez (1997a). Improved heterogeneous distance functions Journal of Artificial Intelligence Research, vol. 6, no. 1, pp. 1-34, 1997.
[19] Friedman J. H. (1994) Flexible metric nearest neighbor classification, praca dostępna na anonymous FTP playfair.stanford.edu.
[20] Short R D, Fukunaga K, (1981). The optimal distance measure for nearest neighbor classification IEEE Transactions on Information Theory 27 pp 622-627, 1981.
[21] Blanzieri E, Ricci F (1999). Advanced Metrics for Class-Driven Similarity Search. International Workshop on Similarity Search, Firenze, Italy, September 1999.



1Kompleksem nazywamy wyrażenie: gdzie l={1,...,n} oraz Przykład kompleksu opisującego piłkę do koszykówki [kolor = pomarańczowy][wielkość = średnia][kształt = okrągły].

2 Wyrażenie nazywamy selektorem; symbol # oznacza jeden z operatorów relacyjnych: . Przykład selektora: [kolor = zielony czerwony].





1   ...   20   21   22   23   24   25   26   27   28


©operacji.org 2019
wyślij wiadomość

    Strona główna