import numpy as np
import tensorflow as tf
from sklearn.model_selection import train_test_split
import pandas as pd
# DATA PREPARE
df = pd.read_csv('housing.csv')
df = df.dropna()
print(df.head)
print(df.describe())
print(df.info())
# NORMALIZATION
from sklearn.preprocessing import MinMaxScaler
scaler = MinMaxScaler()
scaler.fit(df[['housing_median_age', 'total_rooms', 'total_bedrooms', 'population', 'households', 'median_income',
'median_house_value']])
df_scaled_cols = scaler.transform(df[['housing_median_age', 'total_rooms', 'total_bedrooms',
'population', 'households', 'median_income', 'median_house_value']])
df_scaled_cols = pd.DataFrame(data=df_scaled_cols, columns=['housing_median_age', 'total_rooms', 'total_bedrooms',
'population', 'households', 'median_income',
'median_house_value'])
df = pd.concat([df_scaled_cols, df['ocean_proximity']], axis=1)
# DATAFRAME INTO X AND Y -> TRAIN TEST SPLIT
x_data = df[['housing_median_age', 'total_rooms', 'total_bedrooms', 'population', 'households', 'median_income',
'ocean_proximity']]
y_label = df['median_house_value']
X_train, X_test, y_train, y_test = train_test_split(x_data, y_label, test_size=0.3)
# FEATURE COLUMNS FROM DATA
m_age = tf.feature_column.numeric_column('housing_median_age')
rooms = tf.feature_column.numeric_column('total_rooms')
bedrooms = tf.feature_column.numeric_column('total_bedrooms')
population = tf.feature_column.numeric_column('population')
households = tf.feature_column.numeric_column('households')
income = tf.feature_column.numeric_column('median_income')
ocean = tf.feature_column.categorical_column_with_hash_bucket('ocean_proximity', hash_bucket_size=10)
embedded_ocean = tf.feature_column.embedding_column(ocean, dimension=4)
feat_cols = [m_age, rooms, bedrooms, population, households, income, embedded_ocean]
# 3 INPUT FUNCTIONS
train_input_func = tf.estimator.inputs.pandas_input_fn(x=X_train, y=y_train, batch_size=10, num_epochs=1000,
shuffle=True)
test_input_func = tf.estimator.inputs.pandas_input_fn(x=X_test, y=y_test, batch_size=10, num_epochs=1, shuffle=False)
predict_input_func = tf.estimator.inputs.pandas_input_fn(x=X_test, batch_size=10, num_epochs=1, shuffle=False)
# DNN_Reg MODEL
dnn_model = tf.estimator.DNNRegressor(hidden_units=[10,10,10], feature_columns=feat_cols)
dnn_model.train(input_fn=train_input_func, steps=1000)
问题是正常化。
代替sklearn方法,我做了以下操作:
df[['housing_median_age', 'total_rooms', 'total_bedrooms', 'population', 'households', 'median_income',
'median_house_value']] = df[['housing_median_age', 'total_rooms', 'total_bedrooms', 'population', 'households', 'median_income',
'median_house_value']].apply(lambda x: (x-x.min()) / (x.max()-x.min()))
所以,最后,我做了和sklearn一样的事情,只是手动的--用lambda。
我在一个具有特定ID的div中使用javascript创建了一个SVG元素。我的主要目标是获得SVG图像,让用户下载它。 因此,我的想法可能是绝对错误的,是使用,获取子元素,这是我的SVG,然后执行以获取字符串并将其保存到某个位置。我可以看到元素,我知道它在那里,但当我从vaadin打印容器元素时,它没有任何子元素。 我的情况: 我从内容中得到什么,其中是我的DIV,ID: 我错过了什么? 如果这
问题内容: xml看起来像这样: 我正在使用stax一次处理一个“ ”,并且可以正常工作。我需要以字符串的形式获取整个语句节点,以便创建“ 123.xml”和“ 456.xml”,甚至可以将其加载到按帐户索引的数据库表中。 使用这种方法:http : //www.devx.com/Java/Article/30298/1954 我正在寻找做这样的事情: 问题答案: 为什么不只使用xpath? 您可
返回指定元素的CSS规则的值。 使用 Window.getComputedStyle() 获取指定元素的CSS规则的值。 const getStyle = (el, ruleName) => getComputedStyle(el)[ruleName]; getStyle(document.querySelector('p'), 'font-size'); // '16px'
问题内容: 我有一本字典,其中包含用枚举值散列的对象: 我希望能够提取此字典包含的所有颜色(值)的数组。我以为我可以使用该属性,就像遍历字典值()一样,但这会返回错误: 似乎该方法返回了一个更抽象的集合类型,而不是返回值的an 。有没有一种方法可以获取包含字典值的而不循环提取它们的值? 问题答案: 从Swift 2.0开始,的属性现在返回而不是。该类型知道如何使用此抽象集合类型进行初始化: Swi
问题内容: 我正在使用此代码来解析xml 现在,我想从xml节点获取所有内容。喜欢从这个XML 因此,如果要获取文本的所有内容。 我怎么才能得到它 ? 问题答案:
这种tf.session很好: 但我必须保持持久会话以供重用。因此,我没有通过“with”语句创建tf.session,而是在下面创建了一个: 但这给出了以下错误(model_helper.load_model):有人能建议如何加载可以重用的显式会话吗? 文件“/home/pksingh/sans/app/nmt/model_helper.py”,第444行,在load_model session