Quantcast
Channel: CAVEDU教育團隊技術部落格
Viewing all 678 articles
Browse latest View live

[ 活動記錄 ] 2018.10.18- Maker Faire Taipei 2018 RS DesignSpark展品精心製作 Check it out!

$
0
0
文字

RS DesignSpark

圖片

RS DesignSpark

展出時間

2018/11/3(六) – 11/4(日)

 

再過半個多月,Maker Faire Taipei 2018即將盛大登場!屆時,將有許多參展廠商與創客夥伴們齊聚一堂,展出自己的精心之作。而RS DesignSpark也會參與今年的Maker Faire Taipei,並在活動中展出Arduino、Raspberry Pi、Intel Movidius⋯⋯等等應用,分別有盤旋小魚、小型的Pidentifier、Pi-Top物件識別器、Arduino空氣吉他及簡報訓練器。為讓讀者們嚐嚐鮮、過過癮、吃吃味(咦),小編先介紹其中一個作品,Check it out

via GIPHY

簡易款Pi-Top物件識別器

這款應用運用樹莓派和Intel Movidius NCS,並配合Pi-Top CEED Pro及網絡攝影機,將影像與識別結果,顯示於Pi-top螢幕的20級識別小工具。

主要構成硬體:

  1. Raspberry Pi Model B+ (811-1284)

  2. Intel Movidius Neural Network Compute Stick (139-3655)

  3. Pi-Top CEED Pro, Green(122-6547)

圖1

 

其它的作品就請讀者們前往RS官網瀏覽,上面有很詳盡的說明。網址:https://www.rs-online.com/designspark/article-41-cn

 

這次RS DesignSpark參加Maker Faire Taipei 2018,只有作品參展嗎?當然不是囉!RS DesignSpark看準當前邊緣運算的科技趨勢,為參加者舉辦了一場「邊緣運算AI智慧裝置」體驗工作坊!

 

參加體驗工作坊可學到什麼?工作坊將運用Raspberry Pi 加上隨身碟大小的神經運算模組Intel Movidius NCS,展示低功耗又能達到高度運算負載的裝置,盼望讓使用者在AI運算高畫質圖像處理機械視覺類神經網路等應用上,觸發出新的解決方案。

 

有工作坊當然有好康囉!好康就是:凡報名體驗工作坊的夥伴,即可得到Maker Faire Taipei 2018活動票券乙張。(聽說今年的Maker Faire Taipei要購買門票喔!)所以,對邊緣運算有興趣的讀者們,請趕快報名!報名請點這裡

 

 And one more thing⋯⋯

via GIPHY

 

活動現場還將有抽獎活動,會送出Movidius、Raspberry Pi套件、Digilent Analog Discovery 2、Pmod HAT⋯⋯等等豐富獎品。所以,Maker Faire Taipei 2018,我們不見不散喔!

 

相關文章


[ 活動記錄 ] 2018.10.19- 一日導覽,市長為大家介紹AI桃園新創嘉年華!!

$
0
0
文字

宗諭

影片

宗諭

地點

桃園巨蛋

活動時間

2018/10/19-10/21

 

桃園也AI囉!!

 

原來是「2018 AI桃園新創嘉年華」,今天在桃園巨蛋盛大登場!

 

就讓相當重視新創、青創的鄭文燦市長,為讀者們介紹這場新創嘉年華的看點:

 

四大重點,分別是:

  • 機器人競賽

  • 觀光工廠

  • 新創團隊展覽

  • 萬人工作坊

 

我們也在參與第一天活動過程中,與來自美國紐約理工學院(NYIT)的VEX機器人團隊有所交流,一起來看這段互動、訪問:

 

至於什麼是VEX機器人?VEX機器人競賽又是什麼?請參考這裡

 

根據小編實際幫讀者們走透透這場新創嘉年華,光是機器人競賽就有好幾個項目,包括龍舟機器人、相撲機器人、VEX機器人、機器人格鬥賽⋯⋯等等;並且在新創團隊展覽區,也有許多有趣、有創意的產品。看點其實蠻多的,也不必擔心小朋友無聊,因有萬人工作坊可參與。

 

所以,如果讀者們這週末(10/20-21)尚未安排行程,可來桃園巨蛋走走、看看,說不定會有出人意外的驚喜喔!

 

註1:建議不要開車,因為週末人潮應不少!可搭火車至桃園,然後轉乘公車至桃園巨蛋站即可。

註2:如果讀者想要購買AI人工智慧相關教具,歡迎洽詢機器人王國商城,謝謝。

 

相關文章

[ 介紹文 ] 2018.10.22- 7大關鍵特點,帶您認識CAVEDU的人工智慧課程與教具RKCar

$
0
0
文字整理

宗諭

照片

CAVEDU教育團隊

資料提供

豐智

審閱

CAVEDU教育團隊

 

AI時代已然來臨,各行各業的專業人士皆不斷思考如何將人工智慧應用至該領域。而身為教育工作者的您,也許正籌劃構思如何將AI引入教育現場,讓學生能更輕鬆、容易地學習人工智慧。

 

近兩年來,積極投入、規劃、執行AI教育的我們,目前提供給您最佳的解決方案是它:

 

樹莓派神經網路自走車套件(RKCar)

圖1

 

或許您想問:「這台車和一般的自走車有何不同?」好問題!如果只看外觀和硬體規格,還真沒什麼了不起的不一樣。然而,最大的不一樣是:

 

我們提供配套的教學方案,

保證能執行而且一定玩真的!

 

怎麼說?以下七大關鍵特點是我們AI課程教材的保證:

1.課程內容保證務實,不須擔心課程後續服務。

 

2.實戰課程記錄豐富,合作開課單位包括:微軟技術中心、INTEL、淡江大學、金門大學、新興科技教師增能工作坊⋯⋯等等,且課程邀約持續增加中。

 

3.直譯式Python,程式碼一定看得懂。

 

4.覺得AI很難嗎?我們帶您直接使用免費雲端AI玩應用。

 

5.透析AI大腦,帶您一探神經網路模型。

 

6.有效增加AI資料集的辨識力。

 

7.邊緣運算即刻辨識,不須網路也能完成課程。

 

以下是我們最新出爐、熱騰騰的課表,請參考:

人工智慧主題課程

教學目標:
  • 學習基礎Linux系統

  • 學習單板電腦硬體控制

  • 學習基礎模式識別、影像辨識

  • 結合雲端AI快速設計應用

  • 瞭解、實作AI神經網路運算

  • 瞭解、實作智慧邊緣、邊緣運算

教學內容

課程主題

學習內容

分配時數

備註

(一)樹莓派基礎學習

1.     基礎LINUX指令

2.     基礎Python應用

3.     基礎網路與遠端控制

12

使用Raspberry Pi

(二)硬體控制與影像處理

1.        樹莓派腳位控制

2.        Opencv基礎影像與人臉識別

3.        輪型機器人、機械手臂控制

12

使用Camera、RKCar、機械手臂

(三)雲端AI辨識

1.        情緒識別

2.        天氣預報

3.        語音助理

4.        聊天回話

5.        結合社群軟體應用

18

使用網際網路、Camera、麥克風、喇叭

(四)神經網路運算1

1.     不規則符號辨識

2.     資料集收集與分類

3.     資料預先處理與標記

12

使用攝影機、麥克風

(五)神經網路運算2

1.        訓練與輸出AI模型

2.        評估AI模型與應用

3.        提升AI的辨識能力

12

使用攝影機、麥克風

(六)物聯網邊緣運算

1.        如何使用雲端進行深度學習運算

2.        如何使用終端進行神經網路推理

3.        交通號誌、年齡、街道、生物、等範例應用

4.        如何加速神經網路推理

5.        如何設計人工智慧系統

12

神經運算棒

教學方法:
  • 以實作課程為主、知識授課為輔,配合當代科技應用發展,使課程盡可能以主題實作,與生活結合、廠商常使用的工具,以簡單易學為入門,了解當代科技應用的實作流程,帶給學生實體感,課後可深入學習相關技術

教學資源:

(一)教師研習營、業師教學、主題教學。

(二)相關書籍、講義、線上實作教學文章。

 

文章至此,如果您想更深入了解我們的「人工智慧」主題課程,或是洽詢上課時間,歡迎E-mail:service@cavedu.com

 

接下來,我們將透過一張圖片,向您詳細介紹RKCar的幾項特點:

圖2

 

結語

AI時代,需要有符合時代潮流的教具!RKCar套件化的構成,搭配經過多次實戰驗證的人工智慧主題課程,相信能帶給學生、學員,循序漸進且切入AI學習關鍵點的上課題驗!如果想直接入手RKCar,請洽機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.10.24-網友大哉問:TensorFlow 2.0的硬體需求是什麼?

$
0
0
翻譯、改寫

宗諭

審閱

阿吉老師

主題圖片

Designed by Creativeart 

說明 取材自TensorFlow論壇內,網友的提問和回覆,特此感謝授權!

 

在之前我們團隊翻譯的文章中,有提到TensorFlow 2.0將於今年下半年發佈。最近看到TensorFlow的官方論壇中有一位網友Thomas提問:「我考慮入手一個NVIDIA GPU,所以,想知道TensorFlow 2.0的硬體需求?」

 

There will be no change over time we will drop support for compute capabilities as NVIDIA drops support as CUDA versions increase.  It all as to do with budget.  GTX 1080TIs are pretty great cards with a nice amount of memory.  The RTX cards look cool but I have not purchased one for any type of testing yet.  Many of us still use GTX 1080 (non ti) cards and some of us use the Titan V ($3K+taxes) and some Titan XP.  I have not seen performance numbers from the RTX cards but I suspect they may match the Titan V.  Our workstations are very behind on device drivers so we have to watch out for that as well.

 

隔了不久,TensorFlow團隊的Toby大大便有以下回覆:

「由於NVIDIA不再支援後續版本的CUDA,我們也一樣不再支援其運算能力。您提出的問題主要和預算有關,GTX 1080TIs是相當棒的顯示卡,記憶體也很夠。RTX顯示卡應該也很棒,但我尚未購買過任何一款RTX顯示卡進行測試。許多團隊成員應該還在使用GTX 1080顯示卡(不是GTX 1080TI),一部分成員使用Titan V(費用約3000美金加上稅金),另外一些成員使用Titan XP。我還沒瀏覽過RTX顯示卡的效能評比,但我猜RTX顯示卡的效能應該和Titan V差不多。我們的工作站的驅動程式有點舊,所以這方面還要多注意一下。」

 

Since you went into the specifics of cards, it seems to me that the RTX 2080 Ti is a great choice, even *better than some Teslas. The only spec that is dramatically worse compared to Teslas is the memory bus width, from a quick look at this monster table. It seems to me that a beefy computer with a few RTXs should be enough even for a small ML team. Also, I feel like Titan is a bit of an overstretch, unless I am missing out on important Volta/Turing architecture differences.

 

過了一陣子,Thomas回覆道:

「既然您提到了顯示卡的規格,對我來說RTX 2080 Ti是個很棒的選擇,甚至比一些Tesla GPU更棒!相較於Tesla GPU,唯一明顯較差的硬體規格是記憶體匯流排寬度。對我來說,一台搭載了幾張RTX顯示卡的運算能力強大的電腦對於小型的機器學習團隊應該很夠用了。此外,我覺得,TITAN系列顯示卡的效能有點誇大,除非我忽略掉一些Volta/Turing架構上的差異。」

 

以上是一些關於TensorFlow 2.0硬體需求與硬體規格的討論,盼望對讀者們有幫助。日後若有關於TensorFlow重要的討論,我們會試著幫大家摘錄。

 

備註:如果您想要購買AI人工智慧相關的產品或教具,歡迎洽詢機器人王國商城。

 

相關文章

[ 影片 ] 2018.10.26- 阿吉老師線上講堂:CAVEDU教育團隊如何看AI與科技教育(上)

$
0
0
拍攝

宗諭

剪輯、後製

怡婷

資料提供

豐智

製作協助

皇甫、鈺莨

 

AI人工智慧的領域涵蓋廣泛,科技和教育的關鍵字每年都不斷更新、改變,究竟我們要怎樣學習,還有如何教育我們的學生、孩子,才能跟得上時代趨勢???歡迎夥伴們一起來看阿吉老師的影片分享:長期深耕科技教育的CAVEDU教育團隊,如何看AI與科技教育?

歡迎轉載、分享,謝謝。

 

相關文章

[ 介紹文 ] 2018.10.29- 當機械手臂可化身為雷切機、列印機、自動焊接機,還具有視覺辨識功能,WOW!CP值高的它還有哪些功能?

$
0
0
文字撰寫

宗諭

圖片

全佑電腦提供

審閱

CAVEDU教育團隊

 

最近,機械手臂在小編的Facebook朋友圈中相當熱門,因為有好幾位朋友或團隊,都發文介紹正在把玩的機械手臂,例如花蓮曾希哲老師便以LinkIt 7697控制EEZYbotARM MK2機械手臂;自造達人Masen Chen運用樂高積木組成一個簡易版的機械手臂,然後運用micro:bit控制馬達⋯⋯等等。

 

因此,小編便想藉由這篇文章,向讀者們介紹一款精巧的機械手臂——DOBOT M1

 

首先,請讀者們欣賞一段影片:

 

在這部影片中,可以看見DOBOT M1輕巧、迅速地將貴重金屬分類,然後放入托盤中。事實上,DOBOT M1手臂1加上手臂2的範圍(臂長)是400mm;而它的有效荷重為1.5公斤;重複精度是0.02mm。根據前面所提到的規格數據,DOBOT M1算是小型的機械手臂,因此如影片所示,一些輕量、需在小地方迴旋的工作,DOBOT M1能有產生優秀的表現。

 

請讀者們再欣賞另一段影片:

 

影片中,可看見DOBOT M1迅速分類三種顏色的M&M巧克力豆,而視覺辨識正是DOBOT M1的重要功能之一。根據官網上提供的資料,DOBOT M1配有可視功能的API,可以輕鬆和OpenCV,或使用者自己的視覺系統對應使用。可偵測、辨識、比對物體形狀、顏色,達成挑選後透過旋轉方式,將物品放入正確位置的功能。

 

DOBOT M1另一個重要功能是,它可以自行改、增手臂最前端的接頭,以達成使用者的需求。根據目前官網上的資料,它可配置以下幾種接頭:

圖1

 

所以,DOBOT M1不單單只是一台機械手臂,也可化身為雷切機、列印機、自動焊接機⋯⋯等等,並且切換過程的裝配也不會很困難,請觀賞以下由DIYPhotography所拍攝的測試影片:

 

除此之外,如果使用者想要撰寫DOBOT M1的程式,難度也降低許多。根據官網上的資料顯示,它配有圖形化的編寫程式的介面,也有一般的編寫程式的方式,支援Python、Java、C#、C++/C⋯⋯等近十種程式語言。

 

結論

DOBOT M1是一款輕巧的小型機械手臂。因為配有視覺辨識功能,加上可配備多種接頭,使它十分適合進行輕量化、多類型的工作。下一回,如果有類似有趣的機械手臂,小編也會繼續為文介紹給讀者。

 

註1:本文主旨在於介紹DOBOT M1及其功能,並無推薦之意涵。如果讀者有意購買小型機械手臂,請詳細考慮本身的需求,以及DOBOT台灣官網上的詳細資訊,也請多方比較,謝謝。

 

註2:如果您想購買機器人相關材料、元件,歡迎洽詢機器人王國商城,謝謝。

 

相關文章

【臺北市職能發展學院 X CAVEDU教育團隊】​物聯網運用與開發​​-學員錄取名單

$
0
0

主辦單位:臺北市職能發展學院

培訓單位:翰尼斯企業有限公司

學員錄取名單:

學號 姓名
10711001 林O昀
10711002 許賓
10711003 曾O
10711004 李熹
10711005 李O峯
10711006 Patrick Juan
10711007 蔡O峰
10711008 白O元
10711009 劉O仲
10711010 黃O曦
10711011 Sting Shin
10711012 Chan
10711013 邱O鈞
10711014 董O彤
10711015 許O達
10711016 黃先生
10711017 吳O維
10711018 許O升
10711019 張O雄
10711020 何O仁
10711021 黃O曦
10711022 Richard Hsieh
10711023 謝O宏
10711024 Eve
10711025 李O華
10711026 Chris Lin

上課地點:臺北市中山區玉門街1號 (台北自造實驗室Fablab Taipei)

 

注意事項:

1.第一次上課請遞交學員資料卡、職能進修契約書,1吋大頭照(2張)、身份證正反面影本。

2.受訓期間膳宿自理,受訓期滿全期訓練成績合格者,由本單位發給結訓證書。於進修課程期間,除公假、病假、喪假外,其餘請假事由一律以事假認定。未依規定辦理請假時,均以曠課論。扣除公假及喪假外,請假時數累積達全期課程總時數1/5(含)以上者、曠課時數達全期課程時數1/10(含)以上者或參訓期間行為不檢,情節重大者,勒令退訓。

3.已報名繳費學員因故無法參訓,得於開訓前申請退還所繳費用,未於開訓前申辦者,已繳交之訓練費用,除該班次停辦外,一概不予退還。

 

更多課程詳情,請參閱CAVEDU教育團隊首頁(http://www.cavedu.com)。

[ 影片 ] 2018.11.01- CAVEDU觀點:如何看AI與科技教育(完整版)

$
0
0
拍攝

宗諭

剪輯、後製

怡婷

資料提供

豐智

製作協助

皇甫、鈺莨

主講人

阿吉老師曾吉弘

 

 

 

在這一集的「CAVEDU觀點」中,我們探討的主題是:AI與科技教育

總共有以下幾個重點:

 

  1. CAVEDU如何看AI人工智慧教學?(約開始於0:22)

  2. 科技教學方式一直改變,該怎麼辦?(約開始於2:35)

  3. CAVEDU如何設計課程?(約開始於4:53)

  4. CAVEDU如何在課程中導入AI人工智慧?(約開始於5:50)

  5. CAVEDU如何把AI人工智慧落實在大學、高中課堂上(約開始於6:30)

  6. 使用AI人工智慧進行視覺辨識,和使用OpenCV有何不同?(約開始於7:14)

  7. 設計樹莓派AI無人車的核心理念?(約開始於8:43)

  8. 什麼是邊緣運算?(約開始於9:32)

  9. 為何邊緣運算結合AI相關應用適合教學場域?(約開始於10:32)

  10. Intel Movidius神經運算棒介紹(約開始於10:51)

  11. 人工智慧實務工作坊(AGV)介紹(約開始於12:55)

 

重點相當多,讀者們可以根據自己想觀看的內容,選擇段落:

 

也歡迎大家訂閱我們的YouTube頻道,接收來自教育現場的AI與科技教育的訊息,謝謝。

 

相關文章


[ 介紹文 ] 2018.11.02- 兒時夢想達成!!!四驅車GP晶片大改造

$
0
0
文字

建國中學生活科技科趙珩宇老師

照片、影片

建國中學生活科技科趙珩宇老師

 

身為七年級生,四驅車或爆走兄弟應該是引導大家成為Maker的第一個模型或動畫。製作四驅車除了可以針對外觀塗裝進行設計外,小時候也常將馬達拆開,自己重新纏線製作更強大的馬達;或透過增加配重,使車子跑起來更平穩。但在四驅迷心目中,最大的夢想還是能完成那神秘的GP晶片,而這夢想也深深埋藏於我心中,直到長大後才有機會實現。

 

GP晶片大改造

說是GP晶片,其實只是拿手上的Arduino板進行改裝而已。拿自造的Arduino板,結合自己做的線控自走車模組,加上藍牙晶片就完成改裝了。會採用這樣的方式整個重新製作,主要是因四驅車內的空間太小,但筆者不希望破壞四驅車的車殼,因此用自己的Arduino板重新製作比較快,能將整個晶片組的厚度降至9mm以下。

圖1

 

圖2

 

下圖是筆者自己製作的Arduino板搭配藍牙(個人覺得用ESP8266、nodmcu⋯⋯等板子製做,應該會更好。)

圖3

 

接下來便與讀者們分享幾張四驅車的相關照片:

圖4

 

圖5

 

圖6

 

圖7

 

至於,為什麼會有這組四驅車的軌道呢?原來是CAVEDU教育團隊的腦波弱老闆慷慨出借!這樣,讀者們終於知道他的家當有多豐富了吧!接著,請看以下兩部測試影片:

 

 

這週六、日,在華山文化創意產業園區舉行的Maker Faire Taipei 2018中,筆者會在線控機器人展攤,並由我所指導的社團學生帶大家一起玩四驅車,歡迎一起來同樂 :D!並歡迎讀者們關注「建中創造發明社社團 https://www.facebook.com/CKIC7th/)」,謝謝。

圖8

 

相關文章

[ 影片 ] 2018.11.05- 滿滿的Maker精神:Maker Faire Taipei 2018 只有不肯,沒有不能!

$
0
0

[ 翻譯 ] 2018.11.06- 背後原理大解析:如何運用強化學習的演算法,自動化圖像資料擴增?

$
0
0
翻譯

宗諭

審閱

阿吉老師

圖片

Google AI 部落格

主題圖片:Designed by Zivile_z

說明

本文源自 Google AI 部落格,經 Google 同意轉載,特此致謝!

 

The success of deep learning in computer vision can be partially attributed to the availability of large amounts of labeled training data — a model’s performance typically improves as you increase the quality, diversity and the amount of training data. However, collecting enough quality data to train a model to perform well is often prohibitively difficult. One way around this is to hardcode image symmetries into neural network architectures so they perform better or have experts manually design data augmentation methods, like rotation and flipping, that are commonly used to train well-performing vision models. However, until recently, less attention has been paid to finding ways to automatically augment existing data using machine learning. Inspired by the results of our AutoML efforts to design neural network architectures and optimizers to replace components of systems that were previously human designed, we asked ourselves: can we also automate the procedure of data augmentation?

深度學習在電腦視覺領域的成功,部分可歸功於可以取用大量已被標記好的訓練資料。因為隨著使用者增加訓練資料的質、量及多樣性,模型的效能通常會提升。然而,常見的狀況是難以收集到高品質的資料來訓練模型,效能也因此提升不起來。解決這個問題的方法之一,是在神經網路架構中將圖像對稱寫死,好提升模型效能;或是讓專家採取手動設計資料擴增的方法,例如旋轉或翻轉,這些方法已普遍用於訓練出高效能的視覺模型。但直到最近,人們才把注意力放在如何運用機器學習找到自動擴增現有資料的方法。為替換先前由人類設計的系統元件,我們運用AutoML設計神經網路架構優化方法,得到相當好的成果。受到這樣成果的啟發,我們不禁自問:「資料擴增的程序也可以自動化嗎?」

 

n “AutoAugment: Learning Augmentation Policies from Data”, we explore a reinforcement learning algorithm which increases both the amount and diversity of data in an existing training dataset. Intuitively, data augmentation is used to teach a model about image invariances in the data domain in a way that makes a neural network invariant to these important symmetries, thus improving its performance. Unlike previous state-of-the-art deep learning models that used hand-designed data augmentation policies, we used reinforcement learning to find the optimal image transformation policies from the data itself. The result improved performance of computer vision models without relying on the production of new and ever expanding datasets.

在”AutoAugment: Learning Augmentation Policies from Data” 這篇論文中,我們探索一種強化學習的演算法,它能增加現存訓練資料集中資料的量和多樣性。直覺上,資料擴增被用來教導模型關於資料域中影像的不變性,在某種程度上使神經網路對這些重要的對稱性也維持不變,因而能改善這個神經網路的效能。不像之前最先進的深度學習模型採用人類設計的的資料擴增策略,我們運用強化學習,從資料本身發現最佳的圖像轉換原則。運用這些原則的結果改善了電腦視覺模型的效能,而無須仰賴新的且不斷變大的資料集。

 

Augmenting Training Data
The idea behind data augmentation is simple: images have many symmetries that don’t change the information present in the image. For example, the mirror reflection of a dog is still a dog. While some of these “invariances” are obvious to humans, many are not. For example, the mixup method augments data by placing images on top of each other during training, resulting in data which improves neural network performance.

擴增訓練的資料

資料擴增的原理十分簡單:一張圖會有許多的對稱性,它們不會改變這張圖所要呈現的資訊。例如,一條狗做鏡像之後仍然是一條狗。但這些「不變的地方」對我們人類來說,有的相當明顯,有些則不然。例如,「混合(mixup)」方法會在訓練時將影像放置於彼此的上方來擴增資料,進而提升神經網路的效能。

圖1

 

AutoAugment is an automatic way to design custom data augmentation policies for computer vision datasets, e.g., guiding the selection of basic image transformation operations, such as flipping an image horizontally/vertically, rotating an image, changing the color of an image, etc. AutoAugment not only predicts what image transformations to combine, but also the per-image probability and magnitude of the transformation used, so that the image is not always manipulated in the same way. AutoAugment is able to select an optimal policy from a search space of 2.9 x 1032 image transformation possibilities.

AutoAugment是能為電腦視覺資料集設計自定義的資料擴增策略的一種自動化方法。例如,導引如何選擇基本圖像的轉換作業,像是水平或垂直翻轉圖像、旋轉圖像及改變圖像的顏色⋯⋯等等。AutoAugment不僅能預測到要結合哪一種圖像轉換法,還能預測每張圖像的概率,還有圖像轉換的強度,所以圖像不再使用同一種方法來調整。自動擴增技術能從高達2.9 x 1032   種圖像轉換可能性的搜尋空間中找到一個最佳策略。

 

AutoAugment learns different transformations depending on what dataset it is run on. For example, for images involving street view of house numbers (SVHN) which include natural scene images of digits, AutoAugment focuses on geometric transforms like shearing and translation, which represent distortions commonly observed in this dataset. In addition, AutoAugment has learned to completely invert colors which naturally occur in the original SVHN dataset, given the diversity of different building and house numbers materials in the world.

AutoAugment能根據正在處理的資料集,學習到不同的圖像轉換方式。例如,針對street view of house numbers(SVHN)這套資料集中的圖像,因其中包含真實場景圖像中的各種數字,自動擴增技術便聚焦於幾何轉換,像是歪斜和位移,代表這個資料集中常見的資料失真情況。此外,自動擴增技術已完整學會如何將顏色反轉,而這樣的情況在原始的SVHN資料集中相當常見,原因是考慮到真實世界中的各種不同的建築物和房屋門牌號碼材質。

圖2

 

On CIFAR-10 and ImageNet, AutoAugment does not use shearing because these datasets generally do not include images of sheared objects, nor does it invert colors completely as these transformations would lead to unrealistic images. Instead, AutoAugment focuses on slightly adjusting the color and hue distribution, while preserving the general color properties. This suggests that the actual colors of objects in CIFAR-10 and ImageNet are important, whereas on SVHN only the relative colors are important.

在處理CIFAR-10ImageNet這兩個資料集時,AutoAugment技術就不會使用歪斜,因為這兩個資料集通常未包括歪斜物體的圖像;它也不會去反轉顏色,因為這樣會導致圖像失真。相反地,AutoAugment技術聚焦於微調顏色和色調分佈,同時還能保留一般顏色屬性。這意味在CIFAR-10和ImageNet中,物體的實際顏色很重要,而在前面提到的SVHN資料集中,重要的只有相對的顏色。

圖3

 

Results
Our AutoAugment algorithm found augmentation policies for some of the most well-known computer vision datasets that, when incorporated into the training of the neural network, led to state-of-the-art accuracies. By augmenting ImageNet data we obtain a new state-of-the-art accuracy of 83.54% top1 accuracy and on CIFAR10 we achieve an error rate of 1.48%, which is a 0.83% improvement over the default data augmentation designed by scientists. On SVHN, we improved the state-of-the-art error from 1.30% to 1.02%. Importantly, AutoAugment policies are found to be transferable — the policy found for the ImageNet dataset could also be applied to other vision datasets (Stanford CarsFGVC-Aircraft, etc.), which in turn improves neural network performance.

運用AutoAugment技術的成果

針對一些最知名的電腦視覺資料集,我們的AutoAugment演算法找出一些擴增策略,而當我們把這些策略原則納入神經網路的訓練時,可以產生出最高的準確率。藉由擴增ImageNet的資料,我們獲得83.54%的準確率,排名第一!另外,在擴增CIFAR10的資料時,錯誤率則只有1.48%,相較於由科學家設計的預設的資料擴增法,錯誤率降了0.83%!而在擴增SVHN的資料時,錯誤率則是由1.30%降至1.02%。重要的是,AutoAugment策略是可轉移的,也就是說針對ImageNet資料集找出的策略原則也用在其它電腦視覺資料集(例如,Standford CarsFGVC-Aircraft⋯⋯等等。)藉此改善神經網路的效能。

 

We are pleased to see that our AutoAugment algorithm achieved this level of performance on many different competitive computer vision datasets and look forward to seeing future applications of this technology across more computer vision tasks and even in other domains such as audio processing or language models. The policies with the best performance are included in the appendix of the paper, so that researchers can use them to improve their models on relevant vision tasks.

很高興看到我們的AutoAugment演算法在許多不同的電腦視覺資料集中,能有這麼高水準的效能;並且我們期待,未來這項技術能橫跨更多電腦視覺專案,甚至被應用於其它領域,例如音訊處理或語言模型。效能最好的的擴增策略已包含在這篇論文附錄中,研究者可藉此改善他們的視覺專案模型。

 

備註:如果您想要購買AI人工智慧相關產品,歡迎洽詢機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.07- Raspberry Pi飛高高!!動手自造piDrone樹莓派無人機

$
0
0
翻譯

宗諭

原作者

Andy Baker

圖片

Andy Baker

主題圖片:Designed by Photoroyalty

說明

感謝作者授權翻譯,如果想更多瞭解作者,以及它自造的piDrones,請點擊這裡

 

這份說明文件的目標,主要是為了分享一些其它專案可能會感興趣,或覺得有用處的細節。我的目標其實是為了測試自己、樹莓派及python的能力。我選擇自造一台piDrone,不是作為一台飛行的機器,而是作為一項智力的挑戰,需要結合硬體、軟體及電子設備。

 

我自造的piDrone花費我超過兩萬英鎊,包括超過六年的研究、開發及測試。即便按照下面的指示,打造一台自造的無人機,也會花費超過一萬五千英鎊。如果您想要一台飛行的機器,只要買一台DJI出品的Mavic或Spark,就可前往外頭的空曠處讓它們飛行。然而,如果您想知道無人機如何運作,就請繼續讀下去⋯⋯。

 

樹莓派

每一台piDrone所支援的功能,主要根據CPU的效能及所搭載的感測器。

 

Penelope搭載的是樹莓派3B+,有4顆1400MHz的CPU,它的作業系統是Debian Stretch,支援由人類遠端控制、檔案控制的自主飛行及GPS控制飛行。她(意指Penelope)擁有一個我設計的客製化蓋子,這個蓋子是由英國公司PROJECT PLASTICS製造。

圖1 Penelope的美姿

 

Hermione搭載樹莓派3B,有4顆1200MHz的CPU,作業系統是Debian Jessie,支援人類遠端控制、檔案控制的自主飛行及具備避障能力的GPS控制飛行。她(意指Hermione)機身上方的蓋子(請見下圖),是一個倒過來的塑膠沙拉碗,經過我的裁切以符合大小。

圖2 Hermione的儀態

 

Zoe搭載樹莓派Zero W,只有單顆CPU,作業系統是Debian Stretch,支援人類遠端控制及檔案控制飛行。她(意指Zoe)有一個自己手做的蓋子,這個蓋子包含兩個100毫米的圓頂及一根管子,而這根管子是向英國公司PROJECT PLASTICS購買,然後由我連接、裁切及上漆。

圖3 Zoe的曼妙飛行

 

讀者們應該有注意到這三台piDrone的命名規則,第一都是女性的名字,與船和飛機的命名一樣;第二是字尾都是一個英文「-ee」的音。至於為什麼字尾都要有一個這樣的音,其實也沒有為什麼,總之就是浮現在我的腦海中。

 

Ivy則是piDrone的遙控器,搭載樹莓派B3+。而它的外殼是標準的Ninja Pibow外殼,購買自Pimoroni,並額外加了一些客製化的膠層,使外殼更厚實,得以安裝搖桿。

圖4 Ivy厚實的外觀

 

接下來要介紹的是piPad,用來遠端登入三台piDrone及遙控器,控制它們是否順利執行飛行任務。而piPad就是運用標準的樹莓派外殼搭配螢幕。

圖5

 

本文先介紹至此,接下來將繼續介紹piDrone的硬體和程式,敬請期待。

 

備註:如果讀者想要購買樹莓派或相關套件,歡迎洽詢機器人王國商城。

 

相關文章

[ 翻譯 ] 2018.11.13- 根據MakeCode團隊,針對micro:bit設計的Window 10 App beta版正式發佈(有需要的趕快去下載!!!)

$
0
0
翻譯

宗諭

審閱

阿吉老師

圖片

擷取自Microsoft Store

說明

micro:bit教育基金會臉書貼文請見,特此致謝!

 

 

「Today the ‘#MakeCode for micro:bit’ Windows 10 App is out of beta! It’s free and you can find it via our site below…」

幾小時前,micro:bit教育基金會的臉書粉絲專頁發佈一則貼文,內容大意為:「MakeCode團隊針對micro:bit設計的Window 10 App beta版正式發佈,可在Microsoft Store免費下載。在micro:bit官網的Let’s Code頁面有進一步介紹,就讓我們一起來看看:

 

Program the micro:bit using Javascript Blocks on your Windows 10 device. In addition to the familiar features of the web editor, the app lets you program your micro:bit over USB (without needing to drag-and-drop the file onto the micro:bit drive) and directly read serial data from your micro:bit for data logging and other fun experiments!

這個App主要的功能是讓使用者在Window 10裝置上,運用Javascript圖形化介面積木,撰寫micro:bit程式。在讀者們一般比較熟悉的MakeCode網頁編輯器的功能外,這個app讓使用者透過USB,而不需拖放檔案至micro:bit硬碟,並針對資料登錄和其它有趣的實驗,直接從您的micro:bit讀取序列資料。

 

使用Window 10的讀者們想嘗試看看嗎?趕快去下載吧!

 

備註:如果想要購買micro:bit或相關套件,請洽機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.14- 網友大哉問:迴圈有許多種類型,TensorFlow中的tf.while_loop()是屬於哪一種呢?

$
0
0
翻譯

宗諭

審閱

阿吉老師

主題圖片

Designed by Starline

資料來源

TensorFlow官方論壇

 

Hello!讀者們好!又到我們的「網友大哉問」了。今天提出問題的網友是weich,他的問題是:

 

I have a question about tf.while_loop(). Is this sequential loop or parallel loop.

我有一個關於tf.while_loop()的問題。tf.while_loop()是循序迴圈(Sequential Loop),或是平行迴圈(Parallel Loop)?

 

Take the example from tensorflow document. Since the current iteration depends on the last iteration through the `i` in the code. I am wondering if the loop body executes one by one as a pure sequential loop?

以TensorFlow文件中的程式為例,既然現在正在執行的迭代是根據上一個迭代,也就是透過程式碼中的「i」,我好奇的是,是否迴圈主體是一行程式接著一行程式執行呢?如同存粹地循序迴圈?

 

(weich提到的程式碼)

i = tf.constant(0)
c = lambda i: tf.less(i, 10)
b = lambda i: tf.add(i, 1)
r = tf.while_loop(c, b, [i])

 

約莫兩天後,另外一位網友zhenhailiu回覆了:

 

Two op instances from different iterations can be computed simultaneously, as long as there is no direct or indirect data dependency or control dependency between them. The iterations in this while_loop can be paralleled. In some cases, iterations in a while_loop cannot be paralleled, typically when there are multiple iteration variable.

來自不同迭代的兩個實例(Instance)可以同時進行運算,只要它們之間沒有直接或間接的資料依賴關係,或控制依賴關係。而在這個tf.while_loop()中的迭代,可以是平行的。但在一些情況下,在while_loop()中的迭代,不可以是平行的。一般來說,當while_loop()中有多個迭代變數時,while_loop()中的迭代便不可以是平行的。

 

讀者們覺得這樣的回覆如何呢?歡迎留下您們的意見或想法,謝謝。

 

備註:如果想要購買AI人工智慧相關產品,請洽機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.15- micro:bit全球大挑戰 台灣之光們準備好了嗎?

$
0
0
翻譯

宗諭

審閱

CAVEDU教育團隊

圖片

擷取自micro:bit官網,特此致謝!

說明

原文請見,特此致謝!

 

Can you help solve a problem in your community by using the BBC micro:bit?You could win an all-expenses-paid trip to London to take part in the amazing micro:bit Global Challenge day and start to make a real difference in the world!

你可以運用BBC micro:bit,幫助您所屬社群解決問題嗎?如果你願意的話,就有機會贏得一趟免費前往英國倫敦的旅程,參加超級精彩的micro:bit全球挑戰日,並開始讓這個世界有所不同!

 

大挑戰

The Sustainable Development Goals or Global Goals have been created to reduce inequality and to create a world that is fair for everyone, where no-one is left behind. We want you to think about how you can help achieve goal 3 (Good Health and Wellbeing)4 (Quality Education), and 16 (Peace, Justice and Strong Institutions) by focusing on the themes, non-communicable diseases and safety.  How can we ensure that people stay healthy and choose healthy lifestyles? How do we make sure all communities are safe for people to carry out their jobs and attend school?If you want to find out more about the themes, take a look at our teaching resources.

請參考「世界最大的一節課(World’s Largest Lesson)」網站上的可持續發展目標或全球目標,設立這些目標的目的,是為減少不平等並產生一個對每個人都公平的世界,在這個世界中沒有一個人被遺棄。我們期盼你思考,你如何能協助達成目標三(良好的健康與幸福狀態)目標四(素質教育)目標十六(和平、正義及強而有力的公共機構),藉由聚焦於非傳染性疾病與安全這個主題。我們如何確保人們保持健康並選擇健康的生活方式呢?我們如何確保所有的社群對人們都是安全的,使他們可以工作並上學呢?如果你想進一步了解這些主題,歡迎看一看我們的教學資源

圖1

 

開始動手吧!!

By using the BBC micro:bit, we want you to design and make a solution to a problem that affects you and your community or another community somewhere in the world.

透過使用BBC micro:bit,我們盼望你針對一個影響你和你所屬社群的問題,或是一個影響世界上其它角落另一個社群的問題,設計並製做出解決方案。

 

This could be a device that will encourage people to get active and stay healthy. It could be a recipe plan to help your family eat well. Could you help people decide which exercise would suit them best?

解決方案可以是一個裝置,透過它鼓勵人們積極活躍並保持健康;也可以是一項食譜計畫,讓你的家人吃得豐盛而健康。也許你可以協助人們決定什麼樣的運動最適合他們。

 

Or perhaps you and your friends need some more lights for your bikes that start working when the sun sets? Is crossing the road a problem at your school? Could there be a system that helps make it safe? Is there a device that helps prevent bullying at school?

又或許你與朋友在日落時騎腳踏車,需要更多燈光,⋯⋯,有想過什麼裝置能防止校園霸凌嗎?

 

Whatever the issue is, we’re interested to hear how you would go about solving it. The micro:bit can do so many things so use your imagination and be as creative as possible!

不論問題為何,我們非常有興趣聆聽,你如何挺身而出並解決這個問題!micro:bit可以達成許多事情,所以請運用你的想像力並盡可能發揮創意!

 

Don’t worry if the problem you want to work on seems small. Remember that small changes can have a big impact!

不必擔心你想要解決的問題太微小。請務必記得,小小的改變能產生巨大的影響!

圖2

 

誰可以參加?

The competition is open to young people across the world aged 8-12. You may work in a team or as an individual on the challenge. Unfortunately only one person will be able to travel to the Global Challenge finale event, so make sure you discuss this with any team mates in advance. The competition is free to enter and you don’t even have to have a micro:bit to take part. If you’ve got an idea, put it down on paper or use the Let’s Code page. We’ll accept photos of your plans, too. For full competition details and rules, please read the Terms and Conditions.

這項競賽開放給全球8-12歲的少年人參加,你可以組隊參加或個人挑戰。但如果你是組隊挑戰的話,團隊中只有一位成員能前往英國參加最終挑戰。這項競賽完全免費,你甚至不需要擁有一片micro:bit。如果你有一個好點子,請在白紙上寫下它,或是使用Let’s Code網頁,我們也將接受你計畫的照片或截圖。如果你想要了解競賽的全部細節和規則,請參考這裡

 

所以,請務必記得,在11月16日(GMT)下午五點前(如何換算成台灣時間,請參考這裡),填寫完參加表單並提交點子或計畫

 

最後,祝福各位參賽者,加油!!!

 

備註:如果想要購買micro:bit或相關產品,請洽機器人王國商城,謝謝。

 

相關文章


[ 教學技術文 ] 萬聖節最強Maker挑戰!!!親手用DesignSpark Mechanical繪製一個南瓜手機架

$
0
0
作者/攝影

作者/圖片:邱柏憲

部分圖片:來自pixabay網站,特此致謝!

文章分類 教學技術文
材料表
  • DesignSpark Mechanical軟體*1
  • 電腦*1(安裝Windows作業系統)

 

雖然過了一點時間,但還是邀請大家來看這一篇(單押)。

請先看一段作者柏憲大大的創作理念:

 

有時候用一些方法可以做出特殊的造型,例如這次的南瓜,便是利用12塊拱柱組成。此外,加上一點創意也可以使原本簡單的作品有更生動的表現。所以,讀者們在使用DesignSpark Mechanical,或自造任何其他作品時,非常歡迎動用點巧思、創意,也許是腦海中的靈光一現,便能使作品更加生動、有趣喔!

 

如果讀者們想要進一步了解南瓜手機架如何製做,請點擊進入DesignSpark的技術部落格閱讀,謝謝。

https://www.rs-online.com/designspark/makerdesignspark-mechanical-cn

[ 翻譯 ] 2018.11.19- Intel最新推出 NCS 2 第二代神經運算棒! 打造更聰明AIoT裝置

$
0
0
翻譯

宗諭

審閱

阿吉老師

圖片

截圖自Intel第二代神經運算棒介紹影片,特此致謝!

說明

感謝Intel授權翻譯,原文連結請見這裡,特此致謝。

 

Intel is hosting its first artificial intelligence (AI) developer conference in Beijing on Nov. 14 and 15. The company kicked off the event with the introduction of the Intel® Neural Compute Stick 2 (Intel NCS 2) designed to build smarter AI algorithms and for prototyping computer vision at the network edge. Based on the Intel® Movidius™ Myriad™ X vision processing unit (VPU) and supported by the Intel® Distribution of OpenVINO™ toolkit, the Intel NCS 2 affordably speeds the development of deep neural networks inference applications while delivering a performance boost over the previous generation neural compute stick. The Intel NCS 2 enables deep neural network testing, tuning and prototyping, so developers can go from prototyping into production leveraging a range of Intel vision accelerator form factors in real-world applications.

11月14、15日,Intel正在北京主辦自家首次的「人工智慧開發者大會」。Intel在會議開場便向與會者介紹了 Intel® Neural Compute Stick 2 (Intel NCS 2 第二代神經運算棒,本文後簡稱NCS2)。NCS2是為了建構更聰明的AI演算法,以及在網路邊緣節點上的電腦視覺原型開發所設計。NCS2的運作是以 Intel® Movidius™ Myriad™ X 視覺運算單元(VPU)為基礎,並支援Intel® Distribution of OpenVINO™ toolkit,能加速深度神經網路推論應用的開發,同時效能相較於第一代的神經運算棒提升得更多。NCS2可做到深度神經網路的測試、調整與原型開發,使開發者可以實際利用一系列不同大小的Intel視覺加速器,幫助您從原型一路走到商品化。

 

“The first-generation Intel Neural Compute Stick sparked an entire community of AI developers into action with a form factor and price that didn’t exist before. We’re excited to see what the community creates next with the strong enhancement to compute power enabled with the new Intel Neural Compute Stick 2.”
–Naveen Rao, Intel corporate vice president and general manager of the AI Products Group

Intel副總裁暨AI事業部總經理Naveen Rao表示:「第一代的神經運算棒的外觀造型和價格已可說是前所未見,也鼓勵了非常多AI開發者來實際運用它。我們十分樂見伴隨著第二代神經運算棒的運算能力大大提升之後,整個AI開發者社群在未來能創造出更多令人驚艷的專案或產品!」

 

What It Does: Bringing computer vision and AI to Internet of Things (IoT) and edge device prototypes is easy with the enhanced capabilities of the Intel NCS 2. For developers working on a smart camera, a drone, an industrial robot or the next must-have smart home device, the Intel NCS 2 offers what’s needed to prototype faster and smarter.

NCS2的功用為何?

隨著Intel NCS2的效能大幅提升,開發者將更容易將電腦視覺與AI人工智慧整合進物聯網(IoT)及邊緣裝置的原型中。針對智慧相機、無人機、工業用機器人,或是未來每個家庭都必備的智慧家庭裝置,Intel NCS2更提供了開發者能夠讓原型更快更智慧設計之所需。

 

What looks like a standard USB thumb drive hides much more inside. The Intel NCS 2 is powered by the latest generation of Intel VPU – the Intel Movidius Myriad X VPU. This is the first to feature a neural compute engine – a dedicated hardware neural network inference accelerator delivering additional performance. Combined with the Intel Distribution of the OpenVINO toolkit supporting more networks, the Intel NCS 2 offers developers greater prototyping flexibility. Additionally, thanks to the Intel® AI: In Production ecosystem, developers can now port their Intel NCS 2 prototypes to other form factors and productize their designs.

NCS2的外表看來就像個USB隨身碟,內在卻蘊含許多最新科技。由最新一代的Intel VPU(Intel Movidius Myriad X VPU)為基礎,NCS2是第一個標榜為神經運算引擎的產品 — 能提供更多運算效能的神經網路推論專用加速器。。結合了由Intel所推出,且支援更多網路的OpenVINO工具包,NCS2給予開發者在原型開發上更大的彈性。此外,感謝Intel® AI: In Production 生態系,開發者現在可將他們的Intel NCS2原型以不同的外觀造型來呈現,並將自己的設計產品化。

 

How It Works: With a laptop and the Intel NCS 2, developers can have their AI and computer vision applications up and running in minutes. The Intel NCS 2 runs on a standard USB 3.0 port and requires no additional hardware, enabling users to seamlessly convert and then deploy PC-trained models to a wide range of devices natively and without internet or cloud connectivity.

NCS2如何運作?

只要一台筆記型電腦與一隻NCS2,開發者馬上就能進行各種AI和電腦視覺應用!NCS2只要接上標準的USB 3.0連接埠即可,不需要額外的硬體設備,讓使用者能把原本在PC上訓練的模型轉換並部署至各種裝置上,過程中不需連接網際網路或雲端服務。

 

The first-generation Intel NCS, launched in July 2017, has fueled a community of tens of thousands of developers, has been featured in more than 700 developer videos  and has been utilized in dozens of research papers. Now with greater performance in the NCS 2, Intel is empowering the AI community to create even more ambitious applications.

Intel第一代神經運算棒是在2017年7月推出,已經造福了數以千計的開發者,有多達700位開發者拍了影片來介紹它,更在數十份研究報告中被使用。現在,伴隨著第二代神經運算棒的更強大效能,Intel正努力協助AI人工智慧社群來創造出各種更具雄心的應用。

 

備註:如果想要購買Intel NCS相關產品,請洽機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.20- 方便且又品質好!樹莓派遠端監控3D印表機和列印工作利器——OctoPi

$
0
0
翻譯

宗諭

審閱

曾希哲老師、CAVEDU教育團隊

圖片

CAVEDU教育團隊

主題圖片:擷取自OctoPrint官網,特此致謝!

說明

原文請見。感謝曾希哲老師協助,特此致謝!

 

Hello!各位讀者安安!今天要跟大家介紹的是OctoPi

 

什麼是OctoPi呢?

看到字面上有Pi,應可猜測到與Raspberry Pi有關聯。的確,OctoPi是OctoPrint針對3D印表機的樹莓派軟體發佈。它包含了針對3D印表機的主軟體OctoPrint,還有mjpg-streamer with RaspiCam support。後者的作用是提供3D列印的即時影像,以及產生縮時影像。

 

蝦咪係OctoPrint?

OctoPrint是一個針對3D印表機的即時網路介面,讓使用者可直接從瀏覽器監控3D印表機和列印工作,而且是一個完全開放原始碼的軟體。

 

為什麼要使用OctoPi呢?

根據小編請教花蓮的曾希哲老師,他表示:「因可以遠端傳檔案進OctoPrint,然後列印,不需要拿SD卡跑來跑去。另外,可遠端監看印表機的列印狀況,監看的內容包括:溫度、列印路徑、列印畫面,讓使用者不需跑來跑去觀看列印進度。而且很重要的是,用Octopi控制3D列印,效果很好!」

 

推薦使用硬體:Raspberry Pi 3

請讀者們特別注意,OctoPrint官方並不推薦使用Raspberry Pi Zero W,因為當頻寬被使用時,WiFi介面會影響效能,導致3D列印品質下降。

圖1

 

現在,就讓我們來安裝OctoPi吧:

Step1:解壓縮您的圖像,然後把圖像安裝入一張SD卡中。

 

Step2:設定您的WiFi。當以隨身碟方式使用SD卡時,編輯SD卡根目錄上的octopi-wpa-supplicant.txt

 

Step3:從SD卡讓您的樹莓派開機

 

Step4:透過SSH登入您的樹莓派(如果您的樹莓派支援ZeroconfSSH位於octopi.local,或是路由器指定的IP位址)。預設的username是「pi」,預設的密碼則是「raspberry」。如果您想要改變密碼的話,請運用指令passwd。

 

Step5:為了要安裝外掛程式,pip位在/home/pi/oprint/bin/pip。因此,安裝指令應該會是這樣:/home/pi/oprint/bin/pip install <plugin-uri>

 

需要注意的是,OctoPrint主程式位於http://octopi.localhttps://octopi.local,既然SSL憑證由自己核發,並於首次開機時產生,當您在https://octopi.local這個位址時,您會收到一則憑證警告,請忽略它。

 

如果樹莓派偵測到USB網路攝影機或樹莓派攝影機,MJPG-streamer將自行啟動作為網路攝影機的伺服器。如果需要的話,您可以在http://octopi.local/webcam/?action=stream下,分別找到MJPG-streamer與SSL憑證,或直接在設定連接埠8080:http://octopi.local:8080/?action=stream

 

同場加映

然而,除了樹莓派之外,讀者們也可把OctoPi安裝在LinkIt 7688上,透過7688無線控制3D印表機。

圖2 LinkIt 7688

 

圖3 LinkIt 7688 Due加上擴充板

 

但要怎麼做呢?請參考以下步驟:

Step1:將手邊的LinkIt 7688,由AP mode轉成Station mode。

 

Step2:電腦需要與LinkIt 7688在同一網段

 

Step3:運用電腦進行IP scan,尋找到LinkIt 7688的IP。

 

Step4:連線登入

 

Step5:更新

 

Step6:將OctoPi下載至USB隨身碟

 

Step7:安裝OctoPi

 

Step8:將LinkIt 7688轉回AP mode

 

Step9:進行連線測試

 

這篇文章的介紹就到此,讀者們可以拿樹莓派或LinkIt 7688試試看。

 

備註:如果想要購買樹莓派LinkIt 7688,歡迎洽詢機器人王國商城。

 

相關文章

【Fun School撒野同樂會 in 2018 MAKER PARTY 】發光吧!生命之樹!!

$
0
0
撰寫

陳亭妏

攝影

吳怡婷

活動主視覺

活動視覺元素由親子天下提供,特此致謝!

 

【神奇黏土不思議!導電黏土的神秘面紗】

坊間有許多兒童黏土、陶土的捏塑教學,除了製作上簡單、造型要吸睛之外,我們還能夠添加什麼元素,使成品更耀眼呢?今天,我們要使用神奇的導電黏土,接上LED燈和線路,讓外型可愛的植物,就像被賦予生命般閃閃發亮!特別需要注意的是,必須要加入能導電的溶液,才能使黏土導電喔。

 

【辦公室盆栽人氣王——仙人掌】

第一個要跟讀者們介紹的造型是仙人掌,討喜又多變的外觀,使它常常成為黏土課的主角啊!我們在仙人掌的頭頂插入LED燈(是不是很俏皮呢?),使仙人掌的兩隻手臂由導電黏土跟燈,記得身體要用黏土喔!加上小刺跟條紋等裝飾,造型就更完整可愛了!

圖1

 

【可愛又有趣的肉多多盆栽首選——石蓮花】

第二個造型是石蓮花,肥肥的外型也是深受大家喜愛的多肉植物之一,先用黏土做造型,並在最底下選兩片花瓣,用導電黏土讓LED「站得住腳」。在正中央亮燈的造型就是療癒啊~~

圖2

 

【美麗且歷久不衰的——永生玫瑰花】

登登登!!壓軸登場的是美麗的玫瑰花。大家是否記得在卡通版的美女與野獸裡,被玻璃瓶裝著的玫瑰花嗎?造型的作法與石蓮花相似,先耐心把花瓣由內到外完成,再把底下的兩片葉子用導電黏土製作就能成功亮燈啦。聖誕節馬上就到了,玫瑰花的造型配上球球,只要再打個緞帶,就能製造出滿滿的聖誕氣息!是不是送禮自用兩相宜呢?

圖3

 

這些可愛又療癒的作品教學,即將出現在11月29日至12月2日,在圓山花博爭艷館的Maker Party喲!讓我們一起動手讓生命之樹發光吧!

MAKER PARTY 主視覺

 

相關文章

[ 採訪 ] 2018.11.23- 真・創客無雙!!MoMaker放大絕 揉合彈珠檯、遊樂園、奇幻等元素 打造飛龍與騎士的彈珠檯

$
0
0
採訪/撰文

宗諭

攝影

宗諭

受訪者

MoMaker的David與Clement

說明

文中影片的版權屬於MoMaker,感謝授權使用,特此致謝!除了第一部是影片外,其它都是音訊,特此跟讀者們說明。

 

猶記得在Maker Faire Taipei 2018中,這個令人超級驚豔的作品嗎?

 

這個作品是由MoMaker兩位創辦人David與Clement精心打造,名叫「飛龍與騎士的奇幻冒險彈珠檯」。小編相信讀者們大概會認為,能夠打造出這麼厲害的作品,兩位大大若不是武功高強、技能滿點,至少也是本職學能充足吧???來聽聽兩位大大怎麼說:

 

什麼!原來他們也是一步步摸索出來的!那我,豈不是也有機會做出這麼厲害的作品?沒錯,這也正是他們想要傳遞的訊息:

 

是不是!有沒有很勵志!!那麼究竟他們是如何想出讓彈珠檯結合飛龍與騎士的元素呢?是不是看了《冰與火之歌》或《魔戒》啊?

 

原來兩位大大是奇幻迷啊!難怪能做出如此有味道的作品。而小編在準備這次採訪時,因為有在Facebook粉絲團上發佈消息,有網友因感到好奇而留言詢問:「未來有考慮與政府機關或民間單位進一步合作,把這個作品擺在合適地點,使它成為一個景點嗎?」關於這個問題,David與Clement如此回覆:

 

有沒有聽到關鍵字「第二版」呢?小編便替大家問問,究竟第二版彈珠檯與第一版有何不同?

 

圖1 第二版改為金屬製的齒輪

 

看、聽至此,讀者們應該會想跟兩位MoMakers見見面吧?不過先聲明,這可不是美圖秀秀,而是硬派創客照喔,請看:

via GIPHY

 

不好意思,不好意思,應該是這一張才對:

圖2 兩位MoMaker,左為David,右是Clement。

 

今天的報導就到這邊,下次有機會再為讀者們採訪。如果您有希望我們去採訪的Maker領域的人選,歡迎留言,我們會斟酌納入考量,謝謝。

 

備註:如果您想要購買Maker相關產品、器材,歡迎洽詢機器人王國商城,謝謝。

 

相關文章

Viewing all 678 articles
Browse latest View live