リコーは12月26日、人工知能(AI)モデルの学習速度を26倍高速化し、電力効率を90倍向上させる回路アーキテクチャを開発したと発表した。 この回路アーキテクチャは、AIの機械学習手法の1つである「Gradient Boosting Decision Tree(GBDT:勾配ブースティング決定木)モデル」を効率化するもの。GBDTは、データベースなどで構造化された大量データの学習に高い性能を発揮する。 応用先として、オンライン広告のリアルタイムビッディング(Real-Time Bidding)、Eコマース
Googleは「Google Cloud Platform」において、大手クラウドベンダーとして初めて「NVIDIA Tesla T4 GPU」を用いたサービスの提供を開始した。まずは限定的なα版サービスとして扱う。機械学習(ML)推論とモデルの分散トレーニング、コンピュータグラフィックスに最適化されているという。
カリフォルニア大学リバーサイド校の研究チームはPC上のGPUから情報を得ることでWeb閲覧の監視やパスワードの窃盗、機械学習のニューラルネットワーク構造を盗む攻撃を容易に実行できることを発見した。
笠原一輝のユビキタス情報局 深層学習でNVIDIAの脅威となるIntelの「Spring Crest」と「nGRAPH」 - 笠原 一輝 2018年5月31日 11
ニュース 「Ubuntu 18.04」が“Microsoft Store”に登場 ~従来の「Ubuntu」とも共存可能 2018年4月にリリースされた新しい長期サポートリリース - 樽井 秀人 2018年5月14日 12
「NVIDIA TensorRT」とオープンソースソフトウェアの機械学習ライブラリの最新版「TensorFlow 1.7」が統合され、ディープラーニングの推論アプリケーションがGPUで実行しやすくなった。
英ARMは、6日に中国・北京で発表会を開催。「Mali-G52」などGPUと、その関連製品4つを発表した。ここではその模様をレポートするとともに製品を解説する。
【抄訳】 Googleが同社の機械学習アルゴリズムを高速に実行するカスタムチップを独自に開発したことは、前から知られていた。その Tensor Processing Units(TPU)と呼ばれるチップが初めて公開されたのは、2016年の同社のI/Oデベロッパーカンファレンスだったが、詳しい情報は乏しくて、ただ、..