Skip to main content

GPU Hızlandırmalı Derin Öğrenmenin Savunma Sanayiinde Kullanımına Yönelik Son Gelişmeler

Derin öğrenme teknolojisindeki gelişmeler sadece gündelik yaşama yönelik çözümlerle hayatımızı etkilemiyor ayrıca  savunma ve anayurt güvenliğine yönelik daha etkili ve insan algısına yakın doğrulukta çözümler sunuyor.

Derin öğrenmenin savunma ve anayurt güvenliğinde kulanımına yönelik son gelişmelerin anlatılacağı Webinar 21 Haziran 2016 günü saat 20.00-21.00 (Türkiye saati) arasında icra ediecektir. Söz konusu webinarda savunma sanayiisindeki gelişmelerin yanısıra derin öğrenme teorisi, yazılımları ve GPU-hızlandırmalı donanımlar üzerine de bilgi verilecektir.

Webinar sunumunu Jon Barker (Solution Architect with NVIDIA) yapacaktır. Jon Barker İngiltere Savunma Bakanlığı ve ABD Savunma Bakanlığı Araştırma ve Geliştirme gruplarında 15 yıllık iş tecrübesine sahiptir.

Ücretsiz olarak webinara katılım sağlamak için aşağıdaki adresdeki formu doldurmanız yeterlidir.

https://cc.readytalk.com/registration/#/?meeting=xmpzcyb2rlwg&campaign=fbs4vvw9tuuw

NVIDIA Jetson TX1 Kutu Açımı Videosu

İlk NVIDIA Jetson TX1 ürünümüzü aldık. Kutu açımı videosunu aşağıdan izleyebilirsiniz.

Jetson TX1 Teknik Özellikleri

GPU 1 TFLOP/s 256-core with NVIDIA Maxwell™ Architecture
CPU 64-bit ARM® A57 CPUs
Memory 4 GB LPDDR4 | 25.6 GB/s
Video decode 4K 60 Hz
Video encode 4K 30 Hz
CSI Up to 6 cameras | 1400 Mpix/s
Display 2x DSI, 1x eDP 1.4, 1x DP 1.2/HDMI
Connectivity Connects to 802.11ac Wi-Fi and Bluetooth-enabled devices
Networking 1 Gigabit Ethernet
PCIE Gen 2 1×1 + 1×4
Storage 16 GB eMMC, SDIO, SATA
Other 3x UART, 3x SPI, 4x I2C, 4x I2S, GPIOs

Jetson TK1 Developer Kit for Embedded Systems Computing

Dünyanın en yüksek perfomanslı, en yeni teknolojisine sahip geliştirme platformu ve en gelişmiş gömülü görsel hesaplama özelliğine sahip sistemi.

Daha fazla bilgi için: http://www.nvidia.com/object/jetson-tx1-module.html

Thanks to Alison Lowndes for supplying Jetson TX1.

NVIDIA DIGITS ve Derin Öğrenme ile İlgili Sorular ve Cevaplar

NVIDIA’nın DIGITS hakkında düzenlemiş olduğu online derste (12.08.2015) katılımcıların yazılı sorularına verilen cevaplar aşağıda yer almaktadır. Dersle ilgili daha fazla bilgi için tıklayınız.

Q: I own a Titan X. I read somewhere that its single-precision performance (FP32) is 7 TFLOPS and double-precision performance (FP64) is only 1.3 TFLOPS. Do the frameworks discussed here all use single-precision by default? If not, how can they be configured for best performance?
A: By default, all the frameworks use single precision floating point.

Q: How is the number of GPUS set in DIGITS?
A: The number of GPUs to use is set on the train model page

Q: Will the model we make on digits work on Nvidia’s fork of Caffe or will it work with vanilla caffe too?
A: It will work in the main branch of Caffe.  Nvidia’s fork uses the same formats and layer types.

Q: Can digits work on a cluster? I have two GPUs on different machines. If I create a cluster out of them, can digits utilise the two GPU’s?
A: Yes, DIGITS can utilize two GPUs.  Recall that DIGITS is built on top of 3rd party frameworks so provided those frameworks can use two GPUs, then DIGITS can also.

Q: I own a Titan X. I read somewhere that its single-precision performance (FP32) is 7 TFLOPS and double-precision performance (FP64) is only 1.3 TFLOPS. Do the frameworks discussed here all use single-precision by default? If not, how can they be configured for best performance?
A: It is single precision by default in Digits

Q: Is it possible to train voice datas with using NVIDIA DIGITS?
A: Currently DIGITS is designed for training on images, but we would like to add support for speech/voice in the future

Devamını Oku