タグ: 高速化 + 開発 (19)

ソート基準 日付 / 題名 / URL

  1. リコーは12月26日、人工知能(AI)モデルの学習速度を26倍高速化し、電力効率を90倍向上させる回路アーキテクチャを開発したと発表した。 この回路アーキテクチャは、AIの機械学習手法の1つである「Gradient Boosting Decision Tree(GBDT:勾配ブースティング決定木)モデル」を効率化するもの。GBDTは、データベースなどで構造化された大量データの学習に高い性能を発揮する。 応用先として、オンライン広告のリアルタイムビッディング(Real-Time Bidding)、Eコマース
  2. 東京大学と日立は20日、大規模データの匿名加工処理を高速化する技術を開発したと発表した。
  3. Intelは、世界各地を移動しながら人工知能(AI)機能を持ったデバイスを利用したい人たちに向けた新しいガジェットを発表した。 「Intel Neural Compute Stick 2」(Intel NCS 2)は、同社のAIチップ「Movidius Myriad X」を、コンピュータに挿入できるUSBアクセサリに組み込んだ製品だ。Intelでモノのインターネット(IoT)業務を担当するゼネラルマネージャーのSteen Graham氏によると、価格は99ドルで、2017年にIntelがリリースした最初の
  4. ソニーは11月13日、ディープラーニングの学習速度で世界最高速(同社調べ)を達成したと発表した。ディープラーニングの認識精度向上のため、学習データのサイズやモデルのパラメータ数が増え、一度の学習に数週間~数カ月かかるケースも出ている中で、学習時間を短縮できる可能性を示したとしている。 AI(人工知能)開発では、さまざまな試行錯誤をする必要があり、学習時間を短縮させることが重要になる。その手段として、複数のGPUを活用した分散学習が注目を集めていたが、GPU数が増えると「一度のデータ処理個数(バッチサイズ)
  5. 近年、進化を続けてきた量子コンピューティングの活用を広く進めるべく、Google Quantum AIチームが量子ゲートモデルのNISQ向けのフレームワーク「Cirq」のパブリックアルファ版を発表しました。 Google AI Blog
  6. Minimal Ubuntu, on public clouds and Docker Hub(Canonical公式ブログより) Canonicalは2018年7月9日(米国時間)、パブリッククラウドおよびDocker Hubに最適したLinuxディストリビューション「Minimal Ubuntu」をリリースしたことを明らかにした。AWS(Amazon Web Services)およびGCP(Google Cloud Platform)を推奨パブリッククラウドとし、イメージファイルはWeb上からダウンロ
  7. ソシオネクストは、学習済みDNN(Depp Neural Network)を使うエッジでの推論処理を高速化することを狙ったIPコア「NNA :Neural Network Accelerator」を開発した。このIPコアをVPU(Vision Processor Unit)に搭載することで、搭載しない場合に比べて画像認識の処理性能を約 100 倍に向上できるという。
  8. 「Airbnb」は宿泊施設を貸し出す人と借りたい人を引き合わせるウェブサービスを運営しています。Airbnbでは、多くのユーザーを引き入れるためGoogleが提唱するモバイルウェブサイトの高速化を実現するフレームワーク「Accelerated Mobile Pages (AMP)」の導入を検討し、開発も行ったようですが、多くの障壁があったこともあり、結局実現に至らなかったとのことです。どういう経緯があって、実現に至らなかったのか、AirbnbのGil Birman氏とBrian Ta氏がプレゼンテーション
  9. 人工知能(AI)の演算処理を高速化できる半導体チップ「AIチップ」の開発競争がヒートアップしている。2017年から2018年にかけて、第3次AIブームの火付け役である深層学習(ディープラーニング)の演算に特化したチップが、国内外で相次ぎ登場しそうだ。

最初へ / 前へ / 次へ / 最後へ / ページ(1/1)