丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

本文作者: AI研習(xí)社 2017-04-26 16:24
導(dǎo)語:你會用 TensorBoard 么?

雷鋒網(wǎng)按:本文作者 Jerry,原文載于作者個人博客,雷鋒網(wǎng)已獲授權(quán)。

  TensorBoard

如何更直觀的觀察數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)中的變化,或是已經(jīng)構(gòu)建的神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。上一篇文章說到,可以使用 matplotlib 第三方可視化,來進行一定程度上的可視化。然而Tensorflow也自帶了可視化模塊Tensorboard,并且能更直觀的看見整個神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

上面的結(jié)構(gòu)圖甚至可以展開,變成:

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

  使用

結(jié)構(gòu)圖:

with tensorflow .name_scope(layer_name):  

直接使用以上代碼生成一個帶可展開符號的一個域,并且支持嵌套操作:

with tf.name_scope(layer_name):  

    with tf.name_scope('weights'):  

節(jié)點一般是變量或常量,需要加一個“name=‘’”參數(shù),才會展示和命名,如:

with tf.name_scope('weights'):  

    Weights = tf.Variable(tf.random_normal([in_size,out_size]))  

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

結(jié)構(gòu)圖符號及意義:

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

變量:

變量則可使用Tensorflow.histogram_summary()方法:

tf.histogram_summary(layer_name+"/weights",Weights) #name命名,Weights賦值  

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式!(附項目源碼)

常量:

常量則可使用Tensorflow.scalar_summary()方法:

tf.scalar_summary('loss',loss) #命名和賦值  

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

展示:

最后需要整合和存儲SummaryWriter:

#合并到Summary中  

merged = tf.merge_all_summaries()  

#選定可視化存儲目錄  

writer = tf.train.SummaryWriter("/目錄",sess.graph)  

merged也是需要run的,因此還需要:

result = sess.run(merged) #merged也是需要run的  

    writer.add_summary(result,i)  

執(zhí)行:

運行后,會在相應(yīng)的目錄里生成一個文件,執(zhí)行:

tensorboard --logdir="/目錄"  

會給出一段網(wǎng)址:

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

瀏覽器中打開這個網(wǎng)址即可,因為有兼容問題,firefox并不能很好的兼容,建議使用Chrome。

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

常量在Event中,結(jié)構(gòu)圖在Graphs中,變量在最后兩個Tag中。

  附項目代碼:

具體項目承接上一篇文章

import tensorflow as tf  

import numpy as np  

  

def add_layer(inputs,in_size,out_size,n_layer,activation_function=None): #activation_function=None線性函數(shù)  

    layer_name="layer%s" % n_layer  

    with tf.name_scope(layer_name):  

        with tf.name_scope('weights'):  

            Weights = tf.Variable(tf.random_normal([in_size,out_size])) #Weight中都是隨機變量  

            tf.histogram_summary(layer_name+"/weights",Weights) #可視化觀看變量  

        with tf.name_scope('biases'):  

            biases = tf.Variable(tf.zeros([1,out_size])+0.1) #biases推薦初始值不為0  

            tf.histogram_summary(layer_name+"/biases",biases) #可視化觀看變量  

        with tf.name_scope('Wx_plus_b'):  

            Wx_plus_b = tf.matmul(inputs,Weights)+biases #inputs*Weight+biases  

            tf.histogram_summary(layer_name+"/Wx_plus_b",Wx_plus_b) #可視化觀看變量  

        if activation_function is None:  

            outputs = Wx_plus_b  

        else:  

            outputs = activation_function(Wx_plus_b)  

        tf.histogram_summary(layer_name+"/outputs",outputs) #可視化觀看變量  

        return outputs  

  

#創(chuàng)建數(shù)據(jù)x_data,y_data  

x_data = np.linspace(-1,1,300)[:,np.newaxis] #[-1,1]區(qū)間,300個單位,np.newaxis增加維度  

noise = np.random.normal(0,0.05,x_data.shape) #噪點  

y_data = np.square(x_data)-0.5+noise  

  

with tf.name_scope('inputs'): #結(jié)構(gòu)化  

    xs = tf.placeholder(tf.float32,[None,1],name='x_input')  

    ys = tf.placeholder(tf.float32,[None,1],name='y_input')  

  

#三層神經(jīng),輸入層(1個神經(jīng)元),隱藏層(10神經(jīng)元),輸出層(1個神經(jīng)元)  

l1 = add_layer(xs,1,10,n_layer=1,activation_function=tf.nn.relu) #隱藏層  

prediction = add_layer(l1,10,1,n_layer=2,activation_function=None) #輸出層  

  

#predition值與y_data差別  

with tf.name_scope('loss'):  

    loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) #square()平方,sum()求和,mean()平均值  

    tf.scalar_summary('loss',loss) #可視化觀看常量  

with tf.name_scope('train'):  

    train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #0.1學(xué)習(xí)效率,minimize(loss)減小loss誤差  

  

init = tf.initialize_all_variables()  

sess = tf.Session()  

#合并到Summary中  

merged = tf.merge_all_summaries()  

#選定可視化存儲目錄  

writer = tf.train.SummaryWriter("Desktop/",sess.graph)  

sess.run(init) #先執(zhí)行init  

  

#訓(xùn)練1k次  

for i in range(1000):  

    sess.run(train_step,feed_dict={xs:x_data,ys:y_data})  

    if i%50==0:  

        result = sess.run(merged,feed_dict={xs:x_data,ys:y_data}) #merged也是需要run的  

        writer.add_summary(result,i) #result是summary類型的,需要放入writer中,i步數(shù)(x軸) 


了解完 TensorBoard 的詳細用法,你是否想了解 TensorFlow 的更多內(nèi)容?

近期,雷鋒網(wǎng) AI 研習(xí)社有幸邀請到 ThoughtWorks 佟達、白發(fā)川兩位老師,他們將在 mooc.ai 平臺推出一個“Tensorflow & 神經(jīng)網(wǎng)絡(luò)算法高級應(yīng)用”系列培訓(xùn)課程,感興趣的朋友千萬不可錯過!

ThoughtWorks

授課方 ThoughtWorks 是全球領(lǐng)先的 IT 咨詢公司,聯(lián)合國婦女兒童組織、世界衛(wèi)生組織合作伙伴??偛吭谥ゼ痈?,42 個辦公室分布在全球的 15 個國家。

2012年,ThoughtWorks 排在 Google,F(xiàn)acebook 之前,被評為全球最難面試的公司。

2016 年,ThoughtWorks 力壓群雄,獲得全球“最佳女性科技人員雇主”獎項。

培訓(xùn)課介紹

從初級到高級,理論+實戰(zhàn),一站式深度了解 TensorFlow!

本課程面向深度學(xué)習(xí)開發(fā)者,講授如何利用 TensorFlow 解決圖像識別、文本分析等具體問題。課程跨度為 10 周,將從 TensorFlow 的原理與基礎(chǔ)實戰(zhàn)技巧開始,一步步教授學(xué)員如何在 TensorFlow 上搭建 CNN、自編碼、RNN、GAN 等模型,并最終掌握一整套基于 TensorFlow 做深度學(xué)習(xí)開發(fā)的專業(yè)技能。

兩名授課老師佟達、白發(fā)川身為 ThoughtWorks 的資深技術(shù)專家,具有豐富的大數(shù)據(jù)平臺搭建、深度學(xué)習(xí)系統(tǒng)開發(fā)項目經(jīng)驗。

開課時間:每周二、四晚 20:00-21:00

開課時長:總學(xué)時 20 小時,分 10 周完成,每周 2 次,每節(jié)課 1 小時。

詳情地址:http://www.mooc.ai/course/82 

直播授課進行中,歡迎加入!

雷鋒網(wǎng)相關(guān)閱讀:

萬事開頭難!入門TensorFlow,這9個問題TF Boys 必須要搞清楚

一文詳解如何用 TensorFlow 實現(xiàn)基于 LSTM 的文本分類(附源碼)

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說