リコーは12月26日、人工知能(AI)モデルの学習速度を26倍高速化し、電力効率を90倍向上させる回路アーキテクチャを開発したと発表した。 この回路アーキテクチャは、AIの機械学習手法の1つである「Gradient Boosting Decision Tree(GBDT:勾配ブースティング決定木)モデル」を効率化するもの。GBDTは、データベースなどで構造化された大量データの学習に高い性能を発揮する。 応用先として、オンライン広告のリアルタイムビッディング(Real-Time Bidding)、Eコマース
ソニーは11月13日、ディープラーニングの学習速度で世界最高速(同社調べ)を達成したと発表した。ディープラーニングの認識精度向上のため、学習データのサイズやモデルのパラメータ数が増え、一度の学習に数週間~数カ月かかるケースも出ている中で、学習時間を短縮できる可能性を示したとしている。 AI(人工知能)開発では、さまざまな試行錯誤をする必要があり、学習時間を短縮させることが重要になる。その手段として、複数のGPUを活用した分散学習が注目を集めていたが、GPU数が増えると「一度のデータ処理個数(バッチサイズ)
ニュース Intel、第9世代Coreプロセッサに「Meltdown」対策をハードウェア実装 ~開発中の“単体GPU”のコンシューマ向け投入も明言 - 佐藤 岳大 2018年10月11日 16
スーパーコンピューターのトレンドがGPU重視になるなど、GPUはゲームや映画のグラフィックスだけでなく、AI開発や気象予報などの分野でも活用されています。
【抄訳】 Googleが同社の機械学習アルゴリズムを高速に実行するカスタムチップを独自に開発したことは、前から知られていた。その Tensor Processing Units(TPU)と呼ばれるチップが初めて公開されたのは、2016年の同社のI/Oデベロッパーカンファレンスだったが、詳しい情報は乏しくて、ただ、..