ponownego przeprowadzenia podziału w miejscu cięcia
uniknięcia przeuczenia i skomplikowania modelu
Przyjęcie metryki L1 (metryki Manhattan) sprawia, że okręgi przyjmują kształt:
elips
rombów
kardioid
trójkątów
rombów
Algorytmy genetyczne (ewolucyjne) służa generalnie do realizacji zadań:
regresji
poszukiwania reguł asocjacyjnych
optymalizacji
eksploracji danych zapisanych w chromosomach roślin i zwierząt
optymalizacji
Rolą pojedynczego neuronu w warstwie perceptronu użytego do klasyfikacji jest:
podział przestrzeni wejść na dwie półprzestrzenie
ozpoznawanie jednej ze znanych klas w zbiorze
klasyfikacja pojedynczej cechy wejściowej
rozpoznawanie jednego przypadku w zbiorze
podział przestrzeni wejść na dwie półprzestrzenie
Technika k-krotnej walidacji krzyżowej służy do:
wyeliminowania wzajemnych zależności między zmiennymi
ustalenia optymalnego momentu przerwania uczenia modelu
klasteryzacji zbioru na k maksymalnie odległych skupień
uniknięcia tendencyjności w ocenie jakości modelu
uniknięcia tendencyjności w ocenie jakości modelu
Problem klasyfikacyjny polega na:
poszukiwaniu przypadków najbardziej reprezentacyjnych dla klas
prognozowaniu kategorii obserwacji na podstawie jej cech
ustaleniu optymalnej liczby klas, do których należą obserwacje
rozróżnianiu obserwowanych cech na wejściowe i wyjściowe
prognozowaniu kategorii obserwacji na podstawie jej cech
Klasyczny (perceptronowy) model neuronu posiada dwa wejścia o wagach w1=1, w2=2, na które podano odpowiednio sygnały x1=−1, x2=+1. Funkcja aktywacji jest funkcją liniową postaci y=2x. Sygnał wyjściowy neuronu wynosi:
1
0
2
-1
2
Oryginalna zmienna x przyjmuje trzy wartości: -2, 1, 4. Po przeprowadzeniu normalizacji tej zmiennej wg metody min-max do przedziału [0, 1], oryginalnej wartości 1 odpowiada znormalizowana wartość:
1
0,25
0,75
0,5
0,5
.Argumentem funkcji aktywacji neuronu typu RBF jest
odległość wektorów: wejściowego x i wag w
suma sygnałów x1 + x2 + ... wektora wejściowego x
ważona liczba wejść danego neuronu
iloczyn skalarny wektorów: wejściowego x i wag w
odległość wektorów: wejściowego x i wag w
Przeuczenie modelu (overfitting) można rozpoznać po tym, że
trafność predykcji modelu przekracza poziom 99.73%
szybkość uczenia się modelu zaczyna spadać w kolejnych iteracjach
w procesie uczenia zaczyna rosnąć błąd dla próby testowej
liczba błędnie zaklasyfikowanych przypadków spada do 0
w procesie uczenia zaczyna rosnąć błąd dla próby testowej
Na etapie wstępnej eksploracyjnej analizy danych najmniej przydatne jest
zliczenie wystąpień wartości zmiennych nominalnych
wizualne porównanie współzależności par zmiennych
wygenerowanie histogramów zmiennych ciągłych
użycie metod nienadzorowanej klasteryzacji
wygenerowanie histogramów zmiennych ciągłych
.Iloczyn skalarny wektora cech z pewnym wektorem wag można traktować jako formę
redukcji wymiarowości
obrotu w przestrzeni cech
regresji liniowej
ekstrakcji cech
regresji liniowej
Metoda wzmacniania gradientowego (gradient boosting) służy do
zwiększania kontrastu pomiędzy blisko leżącymi klastrami
budowania mocnego modelu złożonego z wielu słabszych modeli
generowania dodatkowych sztucznych próbek w zbiorach uczących
przyspieszania procesu uczenia głębokich sieci neuronowych
budowania mocnego modelu złożonego z wielu słabszych modeli
Problem klasteryzacyjny polega na
poszukiwaniu granic oddzielających obserwacje różnych klas
grupowaniu cech obserwacji w skorelowane ze sobą zespoły
algorytmu wstecznej propagacji błędów
predykcji przynależności danej obserwacji do różnych klas
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
identyfikacji skupisk zgodnie z pewnym kryterium podobieństwa
Wskaż drugi algorytm (metodę), który służy do rozwiązywania tego samego typu problemów eksploracji danych, co algorytm k-najbliższych sąsiadów
algorytm CART (drzewa klasyfikacyjne i regresyjne)
algorytm k-średnich
algorytm Kohonena (sieć neuronowa typu SOM)
algorytm PCA (analiza głównych składowych)
algorytm CART (drzewa klasyfikacyjne i regresyjne)
Poszukiwanie zbiorów częstych jest pierwszym etapem
algorytmu A priori
algorytmu k-średnich
algorytmu wstecznej propagacji błędów
algorytmu k-najbliższych sąsiadów
algorytmu A priori
Wskaż metodę NIEPRZYDATNĄ w rozwiązywaniu zadań predykcyjnych
sieć neuronowa typu RBF
sieć neuronowa typu PERCEPTRON WIELOWARSTWOWY
liniowa regresja wieloraka
algorytm k-średnich
algorytm k-średnich
Aglomeracyjne metody klasteryzacji polegają na
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
krokowym dodawaniu linii dzielących klastry w optymalnym miejscu
stopniowym ograniczaniu klastrów poprzez usuwanie outlierów
iteracyjnym dzieleniu klastrów na najbardziej odległe połowy
przyrostowym budowaniu klastrów poprzez dodawanie sąsiednich punktów
Sieć neuronowa Kohonena (SOM) generalnie jest przeznaczona do realizacji
klasyfikacji wzorcowej
prognozowania lub szacowania wartości
klasyfikacji bezwzorcowej (grupowania)
analizy szeregów czasowych
klasyfikacji bezwzorcowej (grupowania)
Końcowe trzy etapy eksploracji danych w metodologii CRISP-DM to KOLEJNO: