App下載

Python 將自定義分析推送到 Netezza 數(shù)據(jù)庫

耳機依賴患者 2021-09-15 09:58:34 瀏覽數(shù) (2148)
反饋

Albury在本篇文章中,你將會了解 ibmdpy4nps 包是什么,以及它是如何幫助機器學習工程師和數(shù)據(jù)科學家在 Netezza 中執(zhí)行他們的自定義 ML 和分析功能。Netezza On-Prem 和 Netezza 云版本都支持此功能,提供跨平臺的無縫 One Netezza 體驗。

介紹

為什么需要數(shù)據(jù)庫內(nèi)分析?

對數(shù)據(jù)庫內(nèi)分析的需求是眾所周知的。利用 MPP 硬件進行更快處理的強大功能以及不將數(shù)據(jù)移出數(shù)據(jù)庫的便利性使得 ML 工程師和數(shù)據(jù)科學家在像 Netezza? 這樣的 MPP 數(shù)據(jù)庫中運行分析非常有吸引力。

ibmdbpy4nps 與 Netezza 數(shù)據(jù)庫內(nèi)分析有何不同

Netezza 數(shù)據(jù)庫內(nèi)分析 (INZA) 是一個極其強大且全面的分析包,它提供了多個足以處理大多數(shù) ML 步驟的 SQL 例程。但是,用戶僅限于包中可用的內(nèi)容。例如,用戶可能希望使用他最喜歡的 Python ML 庫中可用的最新算法,而不是可用的 INZA 算法來解決 ML 問題?;蛘咚赡芟雽?shù)據(jù)集應用一些自定義轉(zhuǎn)換,這在 INZA 中不可用。這就是 ibmdbpy4nps 包的用武之地。它構建在 Netezza 分析可執(zhí)行技術之上,允許用戶通過簡單的 Python 接口直接在數(shù)據(jù)庫內(nèi)執(zhí)行自定義 ML 代碼。使用 ibmdpy4nps,具有靈活性(用戶在數(shù)據(jù)庫內(nèi)執(zhí)行的內(nèi)容方面不受限制),以及速度(你仍然不在客戶端運行它,而是在數(shù)據(jù)庫內(nèi)部運行它)。用戶還可以使用 Pandas 數(shù)據(jù)框樣式的抽象連接到數(shù)據(jù)庫表,并將其用于數(shù)據(jù)探索(已包含多個標準 Pandas 數(shù)據(jù)框操作的 SQL 轉(zhuǎn)換)。

架構概述如下所示。

流動

三個架構層一起(如下所述)為用戶提供無縫體驗,將客戶端代碼作為數(shù)據(jù)庫內(nèi)的分析可執(zhí)行文件推送。用戶只需通過 ibmdbpy4nps 包中提供的 Python 模塊調(diào)用與分析可執(zhí)行客戶端層交互。

  • 客戶端層——提供用戶可以使用所需參數(shù)導入和調(diào)用的 Python 模塊。
  • 生成層 — 將客戶端的 Python 調(diào)用轉(zhuǎn)換為基于分析可執(zhí)行文件的代碼,并添加調(diào)用預先存在的用戶定義函數(shù)所需的 SQL。
  • 執(zhí)行層 — 提供預先存在的用戶定義函數(shù),執(zhí)行 SQL,并運行處理執(zhí)行的分析可執(zhí)行啟動程序。

這個包為數(shù)據(jù)庫內(nèi)分析提供了什么

  1. 允許用戶使用 Pandas 風格的數(shù)據(jù)框抽象連接到數(shù)據(jù)庫表。
  2. 支持使用內(nèi)置 SQL 轉(zhuǎn)換(再次使用 Pandas 數(shù)據(jù)框樣式)的數(shù)據(jù)庫內(nèi)數(shù)據(jù)探索。
  3. 支持直接在數(shù)據(jù)庫中執(zhí)行自定義 ML 代碼(通過簡單的 Python 接口)

用例

場景

雖然在數(shù)據(jù)庫中推送任何自定義代碼在技術上是可行的,但它可能并非一直都是最佳的。Netezza 以其大規(guī)模并行處理能力而聞名。創(chuàng)建表時,數(shù)據(jù)通常分布在不同的數(shù)據(jù)切片上,并且在這些數(shù)據(jù)切片(在工作節(jié)點上)中的每一個上并行執(zhí)行 SQL 操作,然后再將它們聚合到主機上。當用例旨在利用 Netezza 的并行性時,這是理想的選擇。一些示例場景:

  1. 假設你需要對數(shù)據(jù)庫表的每條記錄應用自定義數(shù)據(jù)轉(zhuǎn)換。這不需要在應用例程之前在一個地方聚合數(shù)據(jù),因此它可以在不同的數(shù)據(jù)切片上并行執(zhí)行。這是一個最佳方案。
  2. 假設你需要針對整個數(shù)據(jù)集構建 ML 模型。這要求在應用模型構建代碼之前將數(shù)據(jù)聚合在一處。這限制了 Netezza 并行運行事物的范圍。這不是最佳方案。
  3. 假設你的數(shù)據(jù)可以分區(qū),你的目標是為每個分區(qū)構建 ML 模型,每個分區(qū)都是一個獨立的數(shù)據(jù)集。在應用模型構建例程之前,這不需要將數(shù)據(jù)聚合在一處。你可以通過為每個分區(qū)并行構建模型來利用 Netezza 并行性。這是一個最佳方案。
  4. 假設你需要探索數(shù)據(jù),例如收集數(shù)據(jù)集的統(tǒng)計信息。這要求在應用例程之前將數(shù)據(jù)聚合在一處,并限制 Netezza 并行運行事物的范圍。這不是最佳方案。然而,鑒于這是一項常見任務,我們已經(jīng)為大多數(shù)使用 Pandas 數(shù)據(jù)幀抽象的數(shù)據(jù)探索操作提供了數(shù)據(jù)庫內(nèi) SQL 實現(xiàn),用戶可以從中受益。

安裝

  1. 在客戶端(在 Python 環(huán)境中):使用?pip install ibmdbpy4nps?.
  2. 在服務器端(Netezza 服務器):安裝從 11.2.1.0 開始的任何 INZA 版本:INZA 自定義(AE 啟動器、模板、預注冊的 SQL 函數(shù)等)在 11.2.1.0 開始的 INZA 版本中可用以支持 ibmdbpy4nps 包調(diào)用。
  3. 在客戶端設置 ODBC 或 JDBC 連接

ODBC 連接:按照安裝和配置 ODBC 部分中的步驟設置和配置 ODBC 數(shù)據(jù)源連接。

例如,下圖(在 Windows 中)顯示了為“weather”數(shù)據(jù)庫設置的數(shù)據(jù)源“weather”。 

流動

JDBC 連接:IBM 知識中心在安裝和配置 JDBC部分中描述了如何在你的客戶端上安裝 Netezza JDBC 驅(qū)動程序。下載并安裝文件 ?nzjdbc3.jar? 后,你必須將其位置包含在 CLASSPATH 環(huán)境變量的值中:

export CLASSPATH=<path-to-nzjdbc3.jar>:$CLASSPATH

連接到數(shù)據(jù)庫

用戶可以訪問具有數(shù)據(jù)框抽象的數(shù)據(jù)庫表,如下所示:

導入包

from ibmdbpy4nps, `import IdaDataBase, IdaDataFrame

連接數(shù)據(jù)庫(weather是數(shù)據(jù)源名稱)

idadb = IdaDataBase('weather', 'admin', 'password')

連接到數(shù)據(jù)庫內(nèi)的表(WEATHER 是數(shù)據(jù)庫表名)

idadf = IdaDataFrame(idadb, 'WEATHER')

注意:以下是將天氣 CSV加載到 Netezza 服務器上的天氣表中的步驟。

  1. 創(chuàng)建一個表:
  2. create table weather (date Date, Location VARCHAR(100), MinTemp REAL, MaxTemp REAL, Rainfall REAL, Evaporation REAL,Sunshine REAL, WindGustDir VARCHAR(20), WindGustSpeed INTEGER, WindDir9am VARCHAR(10), WindDir3pm VARCHAR(10), WindSpeed9am INTEGER, WindSpeed3pm INTEGER, Humidity9am INTEGER, Humidity3pm INTEGER, Pressure9am REAL, Pressure3pm REAL, cloud9am VARCHAR(10), cloud3pm VARCHAR(10), Temp9am REAL, Temp3pm REAL, RainToday VARCHAR(10), RISK_MM REAL, RainTomorrow VARCHAR(10));
  3. 將 CSV 加載到表中:
  4. nzload -df weatherAUS.csv -t weather -db weather -pw password -nullValue NA -boolStyle Yes_No -skipRows 1 -delim , -dateStyle MDY -dateDelim '/' 
  5. 對于沒有標識列的表(如上面的天氣表),創(chuàng)建一個標識列并將值設置為rowid: 
  6.  alter table weather add column id bigint; update weather set id=rowid; 

使用內(nèi)置 SQL 翻譯探索數(shù)據(jù)

本節(jié)對應于第四個用例,其中用戶有興趣探索或收集有關數(shù)據(jù)的一些統(tǒng)計信息。ibmdbpy4nps 包構建在 ibmdbpy 包之上,并支持多個內(nèi)置的 Pandas 風格的數(shù)據(jù)幀操作。下面顯示了一些示例。

?idadf.head()?— 返回前n行

數(shù)字

?idadf.describe()? — 返回列的各種統(tǒng)計信息

數(shù)字

?idadf.corr()? — 返回列的成對相關性

數(shù)字

上面的代碼片段使用相關值生成可視化熱圖(就像本地 pandas 一樣df.corr())。

在數(shù)據(jù)庫內(nèi)執(zhí)行自定義分析/機器學習功能

在本節(jié)中,你將看到如何在數(shù)據(jù)庫中執(zhí)行自定義 ML 代碼(用例 1-3)。

NZInstall – 在 Netezza 上安裝軟件包

實用程序開發(fā)人員需要的一項重要功能是能夠在其 ML 函數(shù)中使用 Python 包之前安裝它們。NZInstall 對此有所幫助。它接受一個包名并返回一個輸出代碼來指示是否安裝了包。輸出 0 表示軟件包已成功安裝在 Netezza 上。

from ibmdbpy4nps.ae.install import NZInstall
# specify the package_name depending on your requirement
package_name=’pandas’ 
idadb = IdaDataBase('weather', 'admin', 'password')
nzinstall = NZInstall(idadb, package_name)
result = nzinstall.getResultCode()

NZFunApply

對表數(shù)據(jù)的每一行應用函數(shù)。這對應于第一個用例,其中用戶有興趣在數(shù)據(jù)庫表的每條記錄上應用自定義數(shù)據(jù)轉(zhuǎn)換。

示例場景:將天氣表中的 MAXTEMP 列從攝氏度轉(zhuǎn)換為華氏度

默認情況下self,你要執(zhí)行的用戶函數(shù)可以采用兩個參數(shù):,表示分析可執(zhí)行上下文,以及x,表示表的行。你可以使用x對選定的列進行操作。在下面的示例中,x[2]檢索并進一步處理第三列 ( ) 以生成新值。對于你希望生成為輸出的列,將它們構建為列表并用于?self.output?填充結果?;蛘撸绻阒挥幸粋€結果,你可以直接將其發(fā)送到?self.output?。

from ibmdbpy4nps import IdaDataBase, IdaDataFrame
from ibmdbpy4nps.ae import  NZFunApply

idadb = IdaDataBase('weather', 'admin', 'password', verbose=True)

idadf = IdaDataFrame(idadb, 'WEATHER')


def apply_fun(self, x):
            from math import sqrt
            max_temp = x[3]
            id = x[24]
            fahren_max_temp = (max_temp*1.8)+32
            row = [id, max_temp,  fahren_max_temp]
            self.output(row)

output_signature = {'ID': 'int', 'MAX_TEMP': 'float', 'FAHREN_MAX_TEMP': 'float'}
nz_apply = NZFunApply(df=idadf, fun_ref = code_str_apply, output_table="temp_conversion",output_signature=output_signature, merge_output_with_df=True)
result_idadf = nz_apply.get_result()
result = result_idadf.as_dataframe()
idadb.drop_table(result_idadf.tablename)
print(result)

在無法將函數(shù)作為引用發(fā)送的筆記本環(huán)境中,請將函數(shù)用引號括起來并將其分配給字符串變量。如果你的函數(shù)代碼以字符串形式發(fā)送,則你還必須在NZApply調(diào)用中提及函數(shù)名稱。下面提供了一個示例。

注意:要為后端 SQL 函數(shù)生成縮進的分析可執(zhí)行代碼,你需要在引號后立即使用函數(shù)名稱,但不要在下一行。

from ibmdbpy4nps import IdaDataBase, IdaDataFrame
from ibmdbpy4nps.ae import  NZFunApply

idadb = IdaDataBase('weather', 'admin', 'password', verbose=True)

idadf = IdaDataFrame(idadb, 'WEATHER')

code_str_apply = """def apply_fun(self, x):
    from math import sqrt
    max_temp = x[3]
    id = x[24]
    fahren_max_temp = (max_temp*1.8)+32
    row = [id, max_temp,  fahren_max_temp]
    self.output(row)
    """
output_signature = {'ID': 'int', 'MAX_TEMP': 'float', 'FAHREN_MAX_TEMP': 'float'}
nz_apply = NZFunApply(df=idadf, code_str=code_str_apply, fun_name='apply_fun', output_table="temp_conversion",output_signature=output_signature, merge_output_with_df=True)
result_idadf = nz_apply.get_result()
result = result_idadf.as_dataframe()
idadb.drop_table(result_idadf.tablename)
print(result)

預期結果(142193 行 x 27 列):

最高溫度 FAHREN_MAX_TEMP 日期 風險_MM 明天下雨 ID
0 27.700001 81.860001 2008-12-16 0.0 448014
1 33.000000 91.400002 2008-12-22 0.0 448020
2 32.700001 90.860001 2008-12-28 0.0 448026
3 28.799999 83.839996 2009-01-03 0.0 448032
4 28.400000 83.120003 2009-01-09 0.0 448038
142188 32.900002 91.220001 2015-12-02 0.0 589631
142189 37.099998 98.779999 2015-12-08 0.2 589637
142190 39.500000 103.099998 2015-12-14 3.8 是的 589643
142191 30.299999 86.540001 2015-12-20 4.8 是的 589649
142192 36.299999 97.339996 2016-02-06 0.0 589692

NZFunT申請

這對應于用戶有興趣執(zhí)行復雜功能的第二個用例——例如,針對整個可用行構建 ML 模型。這將導致我們在以下部分中描述的兩種變體,針對切片數(shù)據(jù)構建模型或針對整個表數(shù)據(jù)構建模型。

a) 對數(shù)據(jù)的每個切片應用該函數(shù)

數(shù)據(jù)切片是表數(shù)據(jù)的一部分。Netezza 根據(jù)創(chuàng)建表時指定的列將數(shù)據(jù)分配到不同的切片。如果未指定列,則第一列將被視為分布列。因此,在使用NZFunTApply. 否則,你可能會在將函數(shù)應用于你不想要的切片時產(chǎn)生意外結果。

示例場景:轉(zhuǎn)換數(shù)據(jù),構建 ML 模型,并測量模型的準確性

讓我們使用天氣數(shù)據(jù)集編寫一個函數(shù)來解決上述情況。天氣數(shù)據(jù)集包含來自澳大利亞多個地點的 10 年每日天氣觀測數(shù)據(jù)。數(shù)據(jù)集中有 48 個唯一位置,并且RainTomorrow是要預測的目標變量(第二天下雨了嗎?)。次日降雨預測是通過對目標變量 訓練分類模型來完成的RainTomorrow。我們的目標是編寫一個函數(shù)來執(zhí)行三個步驟:轉(zhuǎn)換數(shù)據(jù)(通過為空值分配默認值來估算列),構建 ML 模型(為轉(zhuǎn)換后的數(shù)據(jù)構建決策樹分類器),然后測量準確性(計算三倍的 CV 準確度分數(shù))。

請注意,該函數(shù)默認獲取兩個參數(shù):(self表示分析可執(zhí)行上下文)和df(傳入切片數(shù)據(jù)的數(shù)據(jù)幀)。使用?self.output?打印數(shù)據(jù)集的結果大小、第一條記錄的位置和準確度。

from ibmdbpy4nps import IdaDataBase, IdaDataFrame
from ibmdbpy4nps.ae import  NZFunTApply

idadb = IdaDataBase('weather', 'admin', 'password', verbose=True)

idadf = IdaDataFrame(idadb, 'WEATHER')

code_str_host_spus="""def decision_tree_ml(self, df):
    from sklearn.model_selection import cross_val_score
    from sklearn.impute import SimpleImputer
    from sklearn.tree import DecisionTreeClassifier

    from sklearn.preprocessing import LabelEncoder
    import numpy as np

    location = df.LOCATION[0]

    # data preparation
    imputed_df = df.copy()
    ds_size = len(imputed_df)
    imputed_df['CLOUD9AM'] = imputed_df.CLOUD9AM.astype('str')
    imputed_df['CLOUD3PM'] = imputed_df.CLOUD3PM.astype('str')
    imputed_df['SUNSHINE'] = imputed_df.SUNSHINE.astype('float')
    imputed_df['EVAPORATION'] = imputed_df.EVAPORATION.astype('float')


    #remove columns which have only null values
    columns = imputed_df.columns
    for column in columns:
        if imputed_df[column].isnull().sum()==len(imputed_df):
            imputed_df=imputed_df.drop(column, 1)

    columns = imputed_df.columns

    for column in columns:

        if (imputed_df[column].dtype == 'float64' or imputed_df[column].dtype == 'int64'):
            imp = SimpleImputer(missing_values=np.nan, strategy='mean')
            imputed_df[column] = imp.fit_transform(imputed_df[column].values.reshape(-1, 1))

        if (imputed_df[column].dtype == 'object'):
            # impute missing values for categorical variables
            imp = SimpleImputer(missing_values=None, strategy='constant', fill_value='missing')
            imputed_df[column] = imp.fit_transform(imputed_df[column].values.reshape(-1, 1))
            imputed_df[column] = imputed_df[column].astype('str')
            le = LabelEncoder()
            #print(imputed_df[column].unique())

            le.fit(imputed_df[column].unique())
            # print(le.classes_)
            imputed_df[column] = le.transform(imputed_df[column])



    X = imputed_df.drop(['RISK_MM', 'RAINTOMORROW'], axis=1)
    y = imputed_df['RAINTOMORROW']

    # Create a decision tree
    dt = DecisionTreeClassifier(max_depth=5)

    cvscores_3 = cross_val_score(dt, X, y, cv=3)

    self.output(ds_size, location, np.mean(cvscores_3))
"""

由于我們要在每個數(shù)據(jù)切片上應用該函數(shù),所以我們將?parallel=True?在模塊調(diào)用中進行選擇。

output_signature = {'DATASET_SIZE': 'int', 'LOCATION':'str', 'CLASSIFIER_ACCURACY':'double'}

nz_fun_tapply = NZFunTApply(df=idadf, code_str=code_str_host_spus, fun_name ="decision_tree_ml", parallel=True, output_signature=output_signature)
result = nz_fun_tapply.get_result()
result_idadf = nz_apply.get_result()
result = result_idadf.as_dataframe()
idadb.drop_table(result_idadf.tablename)
print(result)

請注意,我們在結果中有多行(對應于創(chuàng)建表時分配的數(shù)據(jù)切片的數(shù)量)。第一列是數(shù)據(jù)集的大小,第二列是數(shù)據(jù)集中第一條記錄的位置,第三列是構建的分類器的準確率。

數(shù)據(jù)集_大小 地點 分類器_準確度
0 23673 Albury 0.824822
1 23734 Albury
0.827126
2 23686 Albury
0.813898
3 23706 Albury
0.818485
4 23739 Albury
0.832175
5 23655 Albury
0.826168

b) 應用于數(shù)據(jù)集的函數(shù)

您可能希望將該函數(shù)應用于整個數(shù)據(jù)集而不是切片。這意味著在應用該功能之前,需要將數(shù)據(jù)聚合到一個地方。這不是最佳方案,但parallel=False為了完整起見,我們確實提供了此選項(使用)。

output_signature = {'DATASET_SIZE': 'int', 'LOCATION':'str', 'CLASSIFIER_ACCURACY':'double'}
nz_fun_tapply = NZFunTApply(df=idadf, code_str=code_str_host_spus, fun_name ="decision_tree_ml", parallel=False, output_signature=output_signature)
result = nz_fun_tapply.get_result()
result_idadf = nz_apply.get_result()
result = result_idadf.as_dataframe()
idadb.drop_table(result_idadf.tablename)
print(result)

因為我們選擇?parallel=False?在完整數(shù)據(jù)集上執(zhí)行該函數(shù),所以你只能在結果中看到一行。第一列是數(shù)據(jù)集的大小,第二列是數(shù)據(jù)集中第一條記錄的位置,第三列是構建的分類器的準確率。

數(shù)據(jù)集_大小 地點 分類器_準確度
142193 Albury
0.827115

注意:對于復雜的功能,最好先在客戶端測試,然后再在服務器上運行??梢允褂眠x擇查詢(?select * from weather limit 1000?)下載一個小的子集(比如 1,000 條記錄),在客戶端數(shù)據(jù)幀上測試該函數(shù),然后將該函數(shù)推送到服務器以針對整個數(shù)據(jù)集執(zhí)行。

NZFunGroupedApply

根據(jù)用戶的選擇在運行時計算的每個分區(qū)上應用該函數(shù)。

本節(jié)對應于第四個用例,其中用戶有興趣執(zhí)行復雜的功能,例如為他選擇的分區(qū)構建 ML 模型。

在這種情況下,你的函數(shù)將應用于運行你提供給?NZFunGroupedApply?的輸入列(索引參數(shù))計算的每個分區(qū)。Netezza 數(shù)據(jù)切片將在運行時重新生成,以便每個切片僅包含一組或多組指定的列。由于這不需要在應用該函數(shù)之前將數(shù)據(jù)聚合在一處,因此這是一種最佳方案。此外,現(xiàn)實世界的 ML 設置需要在定義組時進行控制。因此,這是利用 Netezza 并行性處理復雜 ML 功能的最推薦選項。每個組/分區(qū)都被視為獨立的數(shù)據(jù)集,并且針對這些分區(qū)并行執(zhí)行該函數(shù)。

雖然?NZFunTApply?也將函數(shù)應用于并行數(shù)據(jù)切片 ( ?parallel=True?) 選項,但有一些區(qū)別:

  • ?NZFunTApply ?使用靜態(tài)切片,這意味著這些切片可能不是你的場景所需的數(shù)據(jù)排列。
  • 該函數(shù)是針對整個切片執(zhí)行的,而不是針對切片中的組執(zhí)行的。
示例場景:轉(zhuǎn)換數(shù)據(jù)、構建 ML 模型并為模型評分

讓我們再次使用天氣數(shù)據(jù)集來編寫解決上述情況的函數(shù)。請記住,數(shù)據(jù)集中有 48 個唯一位置(產(chǎn)生 48 個分區(qū))并且?RainTomorrow?是要預測的目標變量。我們的目標是編寫一個函數(shù)來為每個分區(qū)執(zhí)行三個步驟:轉(zhuǎn)換數(shù)據(jù)(通過為空值分配默認值來估算列),構建 ML 模型(為轉(zhuǎn)換后的數(shù)據(jù)構建決策樹分類器),然后評分模型(預測?RAINTOMORROW?的值)。

請注意,該函數(shù)默認獲取兩個參數(shù):self,代表分析可執(zhí)行上下文)和df(傳入切片數(shù)據(jù)的數(shù)據(jù)幀);結果 ID、數(shù)據(jù)集大小、第一條記錄的位置列值和預測值用 打印?self.output?。

from ibmdbpy4nps import IdaDataBase, IdaDataFrame
from ibmdbpy4nps.ae import  NZFunGroupedApply

idadb = IdaDataBase('weather', 'admin', 'password', verbose=True)

idadf = IdaDataFrame(idadb, 'WEATHER')

code_str_host_spus="""def decision_tree_ml(self, df):
            from sklearn.model_selection import cross_val_score
            from sklearn.impute import SimpleImputer
            from sklearn.tree import DecisionTreeClassifier
            from sklearn.model_selection import train_test_split

            from sklearn.preprocessing import LabelEncoder
            import numpy as np



            # data preparation
            imputed_df = df.copy()
            ds_size = len(imputed_df)
            temp_dict = dict()


            columns = imputed_df.columns

            for column in columns:
                if column=='ID':
                    continue

                if (imputed_df[column].dtype == 'float64' or imputed_df[column].dtype == 'int64'):
                  if imputed_df[column].isnull().sum()==len(imputed_df):
                     imputed_df[column] = imputed_df[column].fillna(0)

                  else :

                     imp = SimpleImputer(missing_values=np.nan, strategy='mean')
                     transformed_column = imp.fit_transform(imputed_df[column].values.reshape(-1, 1))         
                     imputed_df[column] = transformed_column

                if (imputed_df[column].dtype == 'object'):
                    # impute missing values for categorical variables
                    imp = SimpleImputer(missing_values=None, strategy='constant', fill_value='missing')
                    imputed_df[column] = imp.fit_transform(imputed_df[column].values.reshape(-1, 1))
                    imputed_df[column] = imputed_df[column].astype('str')
                    le = LabelEncoder()

                    le.fit(imputed_df[column])
                    # print(le.classes_)
                    imputed_df[column] = le.transform(imputed_df[column])
                    temp_dict[column] = le



            # Create a decision tree
            dt = DecisionTreeClassifier(max_depth=5)
            X = imputed_df.drop(['RISK_MM', 'RAINTOMORROW'], axis=1)
            y = imputed_df['RAINTOMORROW']
            X_train, X_test, y_train, y_test = train_test_split(X,y, test_size = 0.25, random_state=42, stratify=y)


            dt.fit(X_train, y_train)

            accuracy = dt.score(X_test, y_test)    

            pred_df = X_test.copy()

            y_pred= dt.predict(X_test)

            pred_df['RAINTOMORROW'] = y_pred
            pred_df['DATASET_SIZE'] = ds_size
            pred_df['CLASSIFIER_ACCURACY']=round(accuracy,2)

            original_columns = pred_df.columns

            for column in original_columns:

             if column in temp_dict:   
               pred_df[column] = temp_dict[column].inverse_transform(pred_df[column])
               #print(pred_df)

            def print_output(x):
                row = [x['ID'], x['RAINTOMORROW'], x['DATASET_SIZE'], x['CLASSIFIER_ACCURACY']]
                self.output(row)


            pred_df.apply(print_output, axis=1)


"""


output_signature = {'ID':'int', 'RAINTOMORROW_PRED' :'str',  'DATASET_SIZE':'int', 'CLASSIFIER_ACCURACY':'float'}

nz_groupapply = NZFunGroupedApply(df=idadf,  code_str=code_str_host_spus, index='LOCATION', fun_name="decision_tree_ml", output_signature=output_signature, merge_output_with_df=True)

result_idadf = nz_apply.get_result()
result = result_idadf.as_dataframe()
idadb.drop_table(result_idadf.tablename)
print(result)

你應該會看到如下所示的結果。請注意,結果列已通過?merge_output_with_df=True?選項與原始 df 列合并。

數(shù)字

Netezza安裝

在 Netezza 上安裝軟件包。實用程序開發(fā)人員需要的一項重要功能是能夠在其 ML 函數(shù)中使用 Python 包之前安裝它們。NZInstall對此有幫助。它接受一個包名并返回一個輸出代碼來指示是否安裝了包。輸出 0 表示軟件包已成功安裝在 Netezza 上。

例子:

from ibmdbpy4nps.ae.install import NZInstall
idadb = IdaDataBase('weather', 'admin', 'password')
nzinstall = NZInstall(idadb, package_name)
result = nzinstall.getResultCode()

結論

在本文中,我們展示了如何將自定義 ML 推送到 Netezza(無論是內(nèi)部部署還是云版本)。如示例中所示,使用 ibmdbpy4nps,用戶將能夠在數(shù)據(jù)庫中無縫運行他們的自定義代碼,就像在他們最喜歡的 IDE 或 Notebook 環(huán)境中運行一樣。這為用戶提供了數(shù)據(jù)庫內(nèi)分析的性能、不將數(shù)據(jù)移出數(shù)據(jù)庫的便利性以及編寫自定義 Python 函數(shù)的靈活性。我們得出的結論是,如果出現(xiàn)以下情況,用戶應該考慮針對他們的用例使用下推方法:

  • 數(shù)據(jù)有分區(qū),如果每個分區(qū)都被視為一個獨立的數(shù)據(jù)集。
  • 模型構建或分析需要在此類分區(qū)數(shù)據(jù)集上并行執(zhí)行。
  • 分區(qū)計數(shù)足夠高(大于或等于 Netezza 配置中的工作節(jié)點數(shù))以利用并行性。


0 人點贊