n月刊ラムダノート Vol.4, No.2(2024)(電子書籍のみ)
通常価格
¥1,000(税込¥1,100)
特別価格
- PDFのみの提供です
- 紙書籍も必要な場合は、こちらからお得なセットをお求めください
- 紙書籍のみを差額等でお求め頂くことはできません
- 本PDF版を他の紙書籍と同時に購入いただく場合には、他の紙書籍について送料がかかります
計算機好きのための技術解説情報誌
- エヌゲッカンラムダノート(不定期刊行)
- 96ページ
- A5判
- 紙書籍は1色刷
- 2024年7月23日 第4巻第2号/通巻8号 発行
n月刊ラムダノートは、nヶ月ごとに刊行される、計算機好きのための技術解説情報誌。コンセプトは「いろんなIT系技術書から1章ずつ選んできた解説記事の集まり」です。今号は3本の記事をお送りします。
目次
#1 SMTP、どうしてこうなった(梶原龍)
Eメールの仕組みに不可欠なプロトコル、SMTPが登場した 40年前は、2024年現在とはインターネットの規模や利用方法が大きく異なる。そのため、SMTPの登場時には存在しなかったDNS、エンドユーザーがメールを投稿する際の認証など、現代では必須と考えられる仕組みにも後から導入されたものが少なくない。プロトコル自体がエンドユーザーによるメールの投稿を意図したものではなかったこともあって、その後の迷惑メールのような問題への対処を難しくしてきた。
本稿では、SMTPの登場から現在の姿になるまでの歴史を概観することで、SMTP、ひいては現在のEメールが抱える問題の根本的な要因について考察する。そのうえで、なりすましメールへの対策として本格的な導入が進みつつあるSPF、DKIM、DMARC、ARCといった送信ドメイン認証の技術について整理する。
#2 Feature Storeのすすめ(杉山阿聖)
サービスやプロダクトに機械学習を導入する際には、訓練(学習)と推論のそれぞれについて、一連の処理のためのパイプラインが必要になる。これらのパイプラインは、いずれも機械学習モデルへの入力として「特徴量」を使うが、訓練と推論とではデータ処理に対する要件が異なることから、別々のコードベースによって構築されることもある。しかし、同じような処理のためのコードを2つ別々に管理することには当然ながら課題も伴う。
本稿では、MLOpsにおいて課題とされてきたこの状況を整理し、その施策として普及が進みつつあるFeature Storeについて紹介する。具体例としてGoogleから提供されているVertex AI Feature Storeを取り上げ、リアルタイム性やタイムトラベルといったFeature Storeの要件がどのように実現されているかを見ていく。
#3 深層学習をコンパイルする ― PFVMの技術(徐子健)
画像認識、大規模言語モデル、画像生成など、現代のAIを利用した技術はニューラルネットワークを基盤として実現されている。ニューラルネットワークでは、そのモデルの学習とモデルを利用した推論の両方に膨大な浮動小数点数演算が必要になることから、GPUをはじめとするアクセラレータが利用されることが多い。そこで、ターゲットとなるアクセラレータにあわせてモデルを最適化し、学習と推論を効率的に実行する「コンパイラ」がさまざまなプラットフォームで開発されている。
本稿では、ニューラルネットワークコンパイラの基本的な考え方と、その具体的な実現方法について、株式会社 Preferred Networks(PFN)が開発するPFVMを例に解説する。PFVMは、多くのプラットフォーム向けのコンパイラでは対応していない学習の最適化にも対応していることから、ニューラルネットワークにおける学習の基本的な仕組みについても触れる。また、その中間表現のベースとなっているONNXフォーマットについても説明する。
執筆者紹介
梶原龍(#1)
やせいの(フリーランスの)プログラマ。暗号とか認証認可とかできます。インターネット技術の標準化方面では、W3C の Web of Things Working Group や HTTPS in Local Network Community Group、IETFのOAuth Working GroupやMessaging Layer Security Working Groupなどで、標準文書の編集や標準の実装などを行う。2020年~2023年にInternet Society Japan ChapterのOfficerとして、標準技術の啓発活動に従事した。Twitter(現X):@s01
杉山阿聖(#2)
株式会社Citadel AIにてソフトウェアエンジニアとしてプロダクト開発に従事。Google CloudのChampion Innovator(AI/ML)。『見て試してわかる機械学習アルゴリズムの仕組み 機械学習図鑑』(翔泳社)の共著者のひとり。
徐子健(#3)
東京大学大学院の修士課程で深層学習およびグラフ上の離散最適化を研究したのち、株式会社Preferred Networksにエンジニアとして入社。主にGPU向けのワークロードの実行を最適化するためPFVMの開発やその他深層学習のエコシステムの開発に従事。
目次
1. SMTP、どうしてこうなった
1.1 SMTPの誕生:1982年8月(RFC 821)
1.2 DNSの登場
1.3 SMTPの拡張の時代
1.4 SMTPの現在:2008年10月(RFC 5321)
1.5 SMTPにおける送信ドメイン認証
1.6 おわりに
1.7 参考文献
2. Feature Storeのすすめ
2.1 Training-Serving Skew(訓練と運用の偏り)
2.2 大規模なデータを素早く扱うための技術
2.3 Feature Storeの要件
2.4 Vertex AI Feature Storeでは要件がどう実現されているか
2.5 まとめ
2.6 参考文献
3. 深層学習をコンパイルする ― PFVMの技術
3.1 ニューラルネットワークコンパイラと汎用コンパイラの違い
3.2 学習の最適化は難しい
3.3 学習を含めた計算グラフを作るPFVMのアプローチ
3.4 計算グラフの最適化
3.5 おわりに
3.6 参考文献