Anasayfa / Makine Öğrenmesi / Birliktelik Kuralları Analizi / IBM SPSS Modeler ile Birliktelik Kuralları Analizi (Association Rules Analysis with IBM SPSS Modeler)

IBM SPSS Modeler ile Birliktelik Kuralları Analizi (Association Rules Analysis with IBM SPSS Modeler)

IBM SPSS Modeler, SPSS ailesinin veri madenciliği süreçlerinde (bu sürecin multidisipliner olduğunu hatırlatmak gerek) içerisinde Supervised, Association ve Segmentation algoritmaları ile bazı Python {XGBoost (Linear ve Tree), Random Forest ve t-SEN} ve bazı  Apache Spark {K-Means, XGBoost, Isotonic} üzerinde kullanılan bazı algoritmalarının yer aldığı (v18.1.1) ticari bir yazılımdır. Drag&Drop mantığı ile hızlıca modeller çıkarabileceğiniz kullanışlı kolay bir yazılımdır. Ayrıca R Project ve Python ile yazmış olduğumuz scriptleri Modeler’ın içerisine implemente edebilirsiniz.

Bu ve benzeri (SAS E-Miner, Knime, RapidMiner) veri madenciliği araçlarının avantajları olduğu gibi dezavantajları var. Bazı avantajları: Hızlı ve pratik bir şekilde modelleme yapılması, kişiden bağımsız olarak geliştirilen modelin drag&drop mantığı olarak değiştirilebilmesi, hızlıca production’a alınabilmesi, stabil (paket bağımlılıklarının olmaması sebebiyle) olarak çalışabilmesi sayılabilir. Dezavantajları ise; Piyasa da yer alan tüm algoritmaların yer almaması, ticari bir ürün olması nedeniyle maliyeti, …

IBM’in SPSS’i (Statistical Package for the Social Sciences) satın aldıktan sonra yeni adı IBM SPSS Modeler (daha önceki adı SPSS Clementine) olarak değiştirilmiştir.

Resim 1: IBM SPSS Modeler

IBM SPSS Modeler;

  1. Toolbar,
  2. Stream Canvas,
  3. Streams, Outputs and Manager,
  4. Project Window (CRISP-DM),
  5. Palettes ve altında yer alan Nodes kısımlarından oluşmaktadır.

Daha fazla bilgi için: https://www.ibm.com/products/spss-modeler

Birliktelik Kuralları Algoritmaları

SPSS Modeler’ın altında Association Rules algoritmaları altında Apriori, Carma, Sequence ve Association Rules olmak üzere 4 tane algoritması bulunmaktadır.

Apriori algoritması kategorik değişkenler çalışmasının yanı sıra diğer algoritmalara göre daha hızlı ve etkili çalışıyorken;

Carma algoritmasının çoklu Consequent(RHS – Right Hand Side) çıktısı verbilmekte;

Sequence algoritması da Carma algoritmasına benzerliğinin yanı sıra işin zaman boyutunun girmesi ile diğerlerine göre farklılık gösterir.

Veri Seti: Basket1n

Öncelikle veri setimiz olan BASKET1n dosyasına bir göz atalım. Veri setine “KurulumDizini\IBM\SPSS\Modeler\18.1\Demos” dizini içerisinde csv (comma seperated value) formatında yer almaktadır.

Drag & Drop Modelleme

Veri setini içeriye aktarmak için;

Sources Paleti altında Var.File node’na çift tıklanarak Stream Canvas eklenir. Stream Canvas üzerinde yer alan Var.File node’na çift tıklanarak aşağıdaki adımlar uygulanır.

  1. Devamında Basket1n dosyasının File Path belirlenir,
  2. Read field names from file işaretlenir,
  3. Strip Lead and trail spaces: Both olarak seçilir,

Field delimiters: Comma ve Newline işaretlenir ve Apply ve OK butonlarına tıklanır.

Resim 2: Var.File Node

Basket1n veri setini içeriye aktardık. Şimdi ise veri setini biraz inceleyim;

Output paleti altında yer alan Data Audit çift tıklayarak Stream Canvas’a ekliyoruz. Birbirine bağlı olan Var.File node’u ile Data Audit node’u Mouse yardımı ile seçip Play butonuna tıklıyoruz.

Resim 3: Data Audit Node (1)
Resim 4: Data Audit (2)

Veri seti ait Field(Değişken), Graph(Değişkenlere Değerlerime ait Grafik), Measurement(Değişkenlerin Tipi), Min(En Küçük Değer), Max(En Büyük Değer), Mean(Ortalama), Std. Dev.(Std. Sapma), Skewness(Çarpıklık), Unique(Aldığı Farklı Değer Tipi), Valid(Değişkene ait Gözlem Sayısı) istatistiksel bilgilerileri içermektedir. Data Audit node’u Buradan aykırı değer olup olmadığı, eksik değer olup olmadığı gibi durumların farkına varmamızı sağlar.

Output paleti altında yer alan Table node’unu çift tıklayarak Var.File node’una ekliyoruz. Devamında node’un üzerine ise çift tıklayıp özellerinden Run butonuna basıyoruz. Veri setimize ait değişkenler ve gözlemler karşımızda.

Resim 5: Output Node (1)
Resim 6: Output Node (2)

Birliktelik Kuralları için veri seti içerisinde yer alan bazı ilgisiz değişkenleri veri seti içerisinden çıkaralım.

Field Ops paleti altında yer alan Type node’nu Stream Canvas’a ekliyoruz.

Resim 7: Type Node (1)

Type Node’a çift tıklayıp, cardid, value, pmethod, sex, homeown, income ve age değişkenlerini seçip Role kısmında modele girmemesi için None olarak işaretliyoruz.

Resim 8: Type Node (2)

Diğer değişkenlerimiz olan fruitveg, freshmeat, dairy, cannedveg, cannedmeal, frozenmeal, beer, wine, softdrink, fish, confectionery değişkenleri seçip Role bilgilerini Both olarak işaretliyoruz. Ne demek istedik;

İlk yazımız olan (Birliktelik Kuralları Analizi) değişken yönlerinin In, Out ve Both olmak üzere 3 farklı değer alabileceğini belirtmiştik. Burada yer alan değişkenlerin Apriori algoritması içerisinde hem input hem de output olarak yani kuralın hem sağında hem de solunda yer almasını istediğimiz için Both olarak işaretliyoruz.

Resim 9: Type Node (3)

Type node’undaki son işlemimiz ise, Clear Values, Read Values butonlarına tıklıyoruz ve değişkenlere ait Measurement(tip) ve Values(değer) bilgilerini almasını sağlıyoruz.

Resim 10: Type Node (4)

Modelleme de sona doğru yaklaşıyoruz. Şimdi Modeling paleti altında yer alan Association alt kısmı içerisindeli Apriori node’unu Stream Canvas’a çift tıklayarak ekliyoruz.

Resim 11: Apriori Node (1)

Devamında Apriori node’una çift tıklayarak node ait özellikler penceresine giriyoruz. Burada Apriori algoritmasının Min. Support ve Min. Confidence başlangıç değerlerini belirliyoruz. Min. Support değerini Apriori default(varsayılan) değeri olan %10, Min. Confidence değerini %50 olarak ayarlıyoruz.

Resim 12: Apriori Node (2)

Diğer ayarlara gelecek olursak; Use partitioned data default olarak işaretli gelmekte ve Maximum number of antecedents değerini yani oluşan kuralın RHS(Right Hand Side) kısmında en fazla 5 tane items olabileceğini belirtmektedir. Only true values for flags burada ise veri seti içerisinde yer alan değişkenlere ait Measurement tipinin Flag (İkili) olduğu yani Satın Alındığı (True) ya da Satın Alınmadığı (False) değerine sahip olduğumuzu bildiğimiz üzere işaretli olmasında hiçbir sakınca yok. Varsayılan olarak işaretli gelmektedir. Optimize kısmında Speed ya da Memory tercihimiz default olarak Speed olarak seçili gelmektedir. Son olarak Run butonuna tıklıyoruz ve başlangıç değerleri ile kurallar oluşmaya başlıyor.

Resim 13: Apriori Node (3)
Resim 14: Apriori Node (4)

Algoritma çalıştı ve nihayetinde bir elmas oluştu. Elmasın üzerine çift tıkladığımızda Model sekmesinde oluşan kuralları görebiliriz.

Resim 15: Apriori Node (5)

Aynı şekilde modele ait daha fazla detay bilgileri Summary sekmesinden ulaşabiliriz.

Resim 16: Apriori Node (6)

Şimdi kırmızı çerçeve içerisine alınan kuralı kısmı yorumlayalım;

  1. Instances: Beer ve FrozenMeal items’ları veri seti içerisinde 170 kere birlikte görüldüğü;
  2. Support: Beer ve FrozenMeal items’ları birlikte görülme olasılığı %17 olduğu;

Nasıl: 170/1000 = 0,17 yani %17 olduğu;

  1. Confidence: Beer ve FrozenMeal items’ları birlikte satın alan kişilerin %85,882 olasılıkla CannedVeg items’ını da satın aldığı;
  2. Rule Support: Beer, FrozenMeal, ve CannedVeg items’larının bir veri seti içerisinde beraber görülme olasılığı %14,6 olduğu;
  3. Lift: Beer ve FrozenMeal items’larının yer aldığı alışveriş sepetlerinde CannedVeg items’ının satışı 2,834 kat arttığı;
  4. Deployment: Veri seti içerisinden yer alan Antecedent(Öncül)’ların ne kadarının karşılandığı ve Consequent(Soncul) ‘ların ne kadarının karşılandığını ölçüsüdür. Yani müşterilerin ne kadar Antecedent items’larına sahip olduğu ancak Consequent items’larına sahip olmadığını belirtir.

Nasıl: (Support – Rule Support)*100 = (17,0 – 14,6) = 2,4 olduğu görülmüştür.

Graph paleti altında yer alan Web node’u Type node’na bağlıyoruz. Devamında Web node’na çift tıklayıp veri seti içerisinde yer alan kategorik Flag tipindeki (True ve False) değişkenlerimizi ekliyoruz.

Resim 17: Web Node (1)
Resim 18: Web Node (2)

Resim 19: Web Node (3)Yukarıdaki (Resim 17) resimde sağ kısımda kırmızı renk ile çerçeve içerisine alınan kısım; FrozenMeal ve Beer item’ların birlikte veri seti içerisinde geçme sıklığının 170 olduğu ve en yüksek adete sahip 2 Links olduğu gözükmektedir.

Şimdi de oluşan modelimizi PMML (Predictive Model Markup Language) olarak kaydediyoruz.

Resim 20: Apriori Node PMML (7)

PMML, Data Mining Group (DMG) tarafından desteklenen ve geliştirilmeye devam edilen ve şu anda 4.3 versiyonuna sahip olan XML (Extensible Markup Language) tabanlı olup model ait oluşan çıktıları (sistemlerimize entegre edip tavsiyelerde bulunabilmemiz için) dışarıya aktarıp eder. Oluşan XML çıktısı;

PMML hakkında daha fazla bilgi için; http://dmg.org/pmml/v4-3/GeneralStructure.html ve https://en.wikipedia.org/wiki/Predictive_Model_Markup_Language bağlantılarını inceleyebilirsiniz.

Son Olarak; Yazıyı beğenerek ve paylaşarak daha fazla kişiye ulaşmasına yardımcı olabilirsiniz. Görüş ve önerileriniz için uslumetin@gmail.com’dan bana ulaşabilirsiniz.

Yeniden görüşmek üzere, Selamlar 🙂

Bağlantılı diğer yazılarım:

  1. Birliktelik Kuralları Analizi (Association Rules Analysis)
  2. R ile Birliktelik Kuralları Analizi (Association Rules Analysis with R Project)

Hakkında Metin USLU

GÖZ ATMAK İSTEYEBİLİRSİNİZ

Minitab Destekli İstatistiksel Analiz Eğitimleri – Ders 1/9 [Minitab Hakkında Genel Bilgi Giriş, Menüler ve Araç Çubukları]

Minitab Hakkında Kalite iyileştirme ve istatistik eğitimi konularında dünyanın lider yazılım ve hizmet sağlayıcısıdır. Merkezi …

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir