context
stringclasses 6
values | source
stringlengths 0
149
| response
stringlengths 4
1.6k
| instruction
stringlengths 5
137
| category
stringclasses 1
value |
---|---|---|---|---|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Databricks SQLは、データレイク上のDelta Lakeテーブルにクエリーを実行できる、馴染みのあるSQLベースの環境を使用する、データアナリスト専用の新たなワークスペースです。Databricks SQLは完全に独立したワークスペースなので、データアナリストはノートブックベースのデータサイエンスツール(実際、データサイエンティストはSQLエディタで作業することも好みますが)に悩まされることなしに、Databricksのプラットフォームで直接作業することができます。しかし、データアナリストとデータサイエンティストは同じデータソースで作業をするので、全体的なインフラストラクチャは非常に簡素化され、信頼できる唯一の情報源を維持することができます。
Databricks SQLで以下のことが可能となります。
1. データレイク上の完全かつ最新なデータに対してクエリーが行えるように、お使いのTableau、Microsoft Power BIのようなBIツールとの統合。
2. Databricksでデータアナリスト、データサイエンティストが直接データレイクにクエリーできるようにするための、既存のBIツールを補完するSQLネイティブのインタフェース。
3. データにおける重要な変化に関するアラート、豊富なビジュアライゼーションとドラッグ&ドロップによるダッシュボードを通じたクエリーの共有。
4. 最新かつ完全なデータを用いた従来の分析ワークロードをサポートするために、お使いのデータレイクに高信頼、高品質、スケーラビリティ、セキュリティ、パフォーマンスを提供 | SQL Analytics(現Databricks SQL)とは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f206f22c4b15b6fbc7f5 | Databricks SQL、Delta、そして(パフォーマンスを含む)レイクハウスアーキテクチャを学ぶためには、こちらの無料のトレーニングをチェックしてください。トレーニングでは、データ管理の進化とレイクハウスを学びます。このモデルを用いることで、どのようにして、信頼できる唯一の情報源に支えられた、高性能のストリーミング、データサイエンス、機械学習、BIが統合されたシステムをデータチームが活用できるのかを説明します。
このセッションのハンズオンでは、統合されたSQLエディタ、ダッシュボードツールであるDatabricks SQLを活用できるのかを学びます。お客様の会社のデータに対してどれだけ容易にクエリーを実行できるのか、ダッシュボードを構築できるのかを探索します。そして、Databricks SQLが、レイクハウスインフラストラクチャにおいて、どのようにデータが使用され、アクセスされたのかに関して、きめ細かい可視性を提供するのかを理解することができます。 | Delta LakeにおけるSQLパフォーマンスの詳細はどこで学べますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/74b3791ec87e69b54fbd | クラウドベースのHadoopプラットフォームをDatabricksレイクハウスプラットフォームに移行する理由は7つあります。
以下に、
レイクハウスプラットフォームでご自身のアーキテクチャをシンプルに
集中管理されるデータガバナンスとセキュリティ
すべてのデータワークロードにおける最高のパフォーマンス
生産性の改善とビジネス価値の向上
データとAIによるイノベーションの促進
クラウドに依存しないプラットフォーム
Databricksパートナーエコシステムのメリット
| クラウドベースのHadoopをDatabricksレイクハウスプラットフォームに移行する理由は何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2141310748850e865990 | はい、MLflow 2.3からLangChainのサポートができるようになりました。 | MLflowでLangChainのサポートをサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ecd98990c3b58988dc0c | DatabricksのWebターミナルは、Sparkドライバーノードでシェルコマンドを実行したり、VimやEmacsのようなエディタを使用できる便利で高度にインタラクティブな手段を提供します。SSHの使用とは異なり、Webターミナルは、一つのクラスターで多数のユーザーによって使用でき、キーのセットアップは不要です。Webターミナルの使用例には、リソース使用量の監視やLinuxパッケージのインストールが含まれます。 | DatabricksのWebターミナルは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/81f06dcbcb212892630d | Databricksでは、Sparkジョブを阻害することなしに不正なレコードやファイルを取り扱うための統合インタフェースを提供しています。データソースのオプションbadRecordsPathを指定することで、例外のログから例外レコード/ファイルや理由を取得することができます。badRecordsPathでは、CSVやJSONソースにおける不正レコードに関する情報やすべてのファイルベースのビルトインソース(Parquetなど)の不正ファイルを記録する例外ファイルのパスを指定します。
さらに、ファイルを読み込む際、ネットワーク接続例外、IO例外などの一時的なエラーが起きる場合があります。これらのエラーは無視されますが、badRecordsPathで記録され、Sparkはタスクの実行を継続します。
注意
ファイルベースのデータソースにおけるbadRecordsPathオプションの使用においては、いくつか重要な制限が存在します。
非トランザクションであり、一貫性の無い結果につながる場合があります。
一時的なエラーは失敗として取り扱われます。 | Databricksで不正レコード、不正ファイルをどのように取り扱うか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e2a0094277a3f789bf8c | MLflowエクスペリメントデータソースは、MLflowエクスペリメントのランデータをロードするための標準APIを提供します。ノートブックエクスペリメントから、あるいはエクスペリメント名、エクスペリメントIDを用いてデータをロードすることができます。 | MLflowエクスペリメントへどうやってアクセスするか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ba0c7f46ff7c3dbf87bb | ノートブック上でmlflow.start_run()コマンドを実行した場合、ランはアクティブなエクスペリメントにメトリクスやパラメーターを記録します。アクティブなエクスペリメントが存在しない場合、Databricksはノートブックエクスペリメントを作成します。ノートブックエクスペリメントは対応するノートブックと同じ名前とIDを持ちます。ノートブックのURL(英語)の最後にある数字のIDがノートブックIDです。 | ノートブックエクスペリメントはどの場合に作成されますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ba0c7f46ff7c3dbf87bb | エクスペリメントには2種類あります。ワークスペースエクスペリメントとノートブックエクスペリメントです。
MLflow APIかワークスペースUIからワークスペースエクスペリメントを作成できます。ワークスペースエクスペリメントはノートブックに紐付けられておらず、いかなるノートブックでもエクスペリメントIDかエクスペリメント名を指定することでランをこれらのエクスペリメントに記録することができます。
ノートブックエクスペリメントは特定のノートブックに紐付けられています。mlflow.start_run()を実行した際にアクティブなエクスペリメントが存在しない場合には、Databricksは自動でノートブックエクスペリメントを作成します。 | MLflowのエクスペリメントには何種類がありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/da227cec883c410de78e | データベースにあるデータに対するすべての操作が行えると言っても過言ではありません。できることが多岐に渡るため、ある程度の分類がされています。
DDL(Data Definition Language)
データベース、テーブルなどを作成、削除します
CREATE/DROP/ALTER
DML(Data Manipulation Language)
テーブルを検索したり、変更します
SELECT/INSERT/UPDATE/DELETE
DCL(Data Control Language)
テーブルに対する権限設定などを行います
GRANT/REVOKE
| SQLで何ができる? | closed_qa |
|
https://qiita.com/taka_yayoi/items/da227cec883c410de78e | 以下のSQLを実行してテーブルを更新していきます。
INSERT
UPDATE
DELETE
SELECT AS OF | テーブルの更新に使うSQLを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/da227cec883c410de78e | SQLでの更新処理には以下の注意事項があります。
誤ってデータを消してしまった、上書きしてしまったということを避けることは正直困難です。
そんな場合に頼りになる機能があります。Delta Lakeのタイムトラベルです。
ここまで操作してきたテーブルの実態はDelta Lakeというソフトウェアによって実装されているものです。
Delta Lakeはトランザクション保証、インデックスなどの機能がサポートされていますが、上の様なケースで役立つのがデータのバージョン管理であるタイムトラベルです。
Delta Lakeのテーブルに実行される更新処理はすべて記録され、任意のタイミングにロールバックすることができます。 | SQLでテーブルの更新処理には注意事項は何でしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/da227cec883c410de78e | テーブルの更新履歴を確認する時に、「DESCRIBE HISTORY」を使います。 | これまでのテーブル更新処理をみたい場合に使うSQLは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/da227cec883c410de78e | 英語の文法としてSQLを読むと理解しやすいです。
SQLの柔軟性は素晴らしいものですが、その代償としていくらでも複雑になり得ます。
複雑なSQLを理解するには、
フォーマットして可読性を上げ、
英語の文を読む語順 (SELECT -> FROM -> WHERE -> GROUP BY -> HAVING -> ORDER BY) でブロックを把握し、
FROMに記述されているテーブルから、
WHEREに記述されている抽出条件に基づいてレコードを抽出し、
GROUP BYに指定されている集約キーでグルーピングし、
HAVINGに記述されている条件に基づいてグループを絞り込み、
ORDER BYに指定されているソートキーで並び替えて、
SELECTに指定されている列
を取得する。 | SQLの読み方を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/da227cec883c410de78e | Databricksでは、以下のメリットを享受いただきながらSQLを活用いただくことができます。
Databricks SQL
ノートブックでのSQLサポート
SQLの結果をダッシュボード、機械学習などとシームレスに連携
並列分散処理による高速化
高度な要件に答えるSQL拡張 | SQLをDatabricksで使用するメリットは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5a804e53c60a55fb7340 | MLflowは機械学習モデルのライフサイクル管理のためのフレームワークを提供するソフトウェアです。機械学習のトラッキング、集中管理のためのモデルレジストリといった機能を提供します。Databricksでは、マネージドサービスとしてMLflowを利用できる様になっていますので、Databricksノートブック上でトレーニングした機械学習は自動でトラッキングされます。 | MLflowとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5a804e53c60a55fb7340 | Apache Sparkは、大規模なデータの高速リアルタイム処理を実現するオープンソースのクラスタコンピューティングフレームワークです。大量なデータを並列で処理することで、非常に高いパフォーマンスを発揮することができます。データ加工だけでなく、機械学習モデルのトレーニングやハイパーパラメーターチューニングを並列処理することが可能です。 | Apache Sparkとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5a804e53c60a55fb7340 | Delta Lakeはデータレイクに格納されているデータに対して高速なデータ処理、強力なデータガバナンスを提供するストレージレイヤーソフトウェアです。ACIDトランザクションやデータのバージョン管理、インデックス作成機能などを提供します。機械学習の文脈ではデータのバージョン管理が重要な意味を持つことになります。 | Delta Lakeとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5a804e53c60a55fb7340 | MLプロジェクトは機械学習(ML)モデルを構築することが目的ではなく、ビジネス課題を解決するために立ち上げるのが一般的です。 | 機械学習(ML)プロジェクトとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5a804e53c60a55fb7340 | MLflowを活用することで、データサイエンティストやMLエンジニアによる機械学習モデルの実験段階から本格運用までをサポートすることができます。 | MLflowによる機械学習モデルのライフサイクル管理はどの範囲でしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5a804e53c60a55fb7340 | MLflow、Spark、Delta Lake、これらすべては、データサイエンティスト、MLエンジニアの皆様が、生産性高く機械学習の取り組みを進められる様にするためのものです。 | 機械学習プロジェクトにおけるMLflow/Spark/Delta Lakeの価値は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/bc3edb691c6f1fc7c79a | SQLコマンド「CONVERT TO DELTA」を利用して、ParquetやIcebergテーブルのDelta Lakeテーブルへの変換処理を実行します。ParquetやIcebergテーブルのDelta Lakeへのインクリメンタルな変換に関しては、ParquetやIcebergからDelta Lakeへのインクリメンタルなクローンをご覧ください。https://qiita.com/taka_yayoi/items/bc3edb691c6f1fc7c79a | ParquetやIcebergテーブルのDelta Lakeテーブルへの変換処理をどのように実行しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/bc3edb691c6f1fc7c79a | 以下のシチュエーションにおいてParquetやIcebergを取り込む際にクローンを使用することをお勧めします。
ParquetやIcebergからDelta Lakeへのマイグレーションを実施しているが、ソーステーブルを使い続ける必要がある。
追加、更新、削除がなされるプロダクションソーステーブルとターゲットテーブル間の取り込みのみ動機を維持する必要がある。
レポーティング、機械学習、バッチETLにおけるソースデータのACID準拠のスナップショットを作成したいと考えている。
注意
ソーステーブルという用語は、クローンされるテーブルとデータファイルを指し、ターゲットテーブルはオペレーションによって作成、更新されるDeltaテーブルを指します。 | ParquetやIcebergデータのインクリメンタルな取り込みのためにいつクローンを使うべきか | closed_qa |
|
https://qiita.com/taka_yayoi/items/bc3edb691c6f1fc7c79a | ParquetやIcebergに対するクローンは、Deltaテーブルのクローンに使うものと同じ基本構文を使用し、シャロークローンとディープクローンをサポートしています。
多くのワークロードにおいてインクリメンタルなクローンを用いることをお勧めします。ParquetやIcebergに対するクローンではSQL構文を使用します。
注意
ParquetやIcebergに対するクローンでは、Deltaのクローンや変換とは異なる要件、保証となります。ParquetやIcebergテーブルのクローンの要件と制限をご覧ください。 | クローンの構文はどのようなものか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/bc3edb691c6f1fc7c79a | ディープクローンにしてもシャロークローンにしても、クローンが実行された後にターゲットテーブルに適用された変更は、ソーステーブルに同期されません。クローンによるインクリメンタルな同期は一方向であり、ソーステーブルに対する変更は自動でターゲットのDeltaテーブルに適用されます。
ParquetやIcebergテーブルに対するクローンを使用する際には、以下の制限も適用されます。
このオペレーションでは、ファイルレベルの統計情報は収集しません。このため、ターゲットテーブルではDelta Lakeのデータスキッピングのメリットを享受することができません。
クローンする前に、パーティションを持つParquetテーブルをHiveメタストアのようなカタログに登録し、ソーステーブルと同じテーブル名を使用しなくてはなりません。パーティションを持つParquetテーブルに対してパスベースのクローン構文を使用することはできません。
パーティション進化をおこなったIcebergテーブルをクローンすることはできません。
Icebergテーブルにはパスのみを用いてアクセスすることができます。テーブル名はサポートされていません。
Unity Catalogではシャロークローンをサポートしていません。 | ParquetやIcebergテーブルのクローンの要件と制限について教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/ca4c822bcc02f4ea8f7c | はい、ストレージロケーションに対する書き込み権限を持っているのであれば、ParquetデータファイルのディレクトリをDelta Lakeテーブルに変換することができます。 | 外部ロケーションにあるParquetやIcebergファイルのディレクトリをDelta Lakeテーブルに変換できますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ca4c822bcc02f4ea8f7c | Unity Catalogでは、外部テーブルで多くのフォーマットをサポートしていますが、マネージドテーブルではDelta Lakeのみをサポートしています。マネージドのParquetテーブルを直接Unity CatalogのマネージドDelta Lakeテーブルに変換するには、テーブルをUnity Catalogにアップグレードするをご覧ください。
外部ParquetテーブルをUnity Catalogにアップグレードするには、外部テーブルをUnity Catalogにアップグレードするをご覧ください。
外部ParquetテーブルをUnity Catalogに登録すると、それを外部Delta Lakeテーブルに変換することができます。Parquetテーブルがパーティショニングされている場合には、パーティショニング情報を指定しなくてはならないことに注意してください。 | マネージドテーブル、外部テーブルをUnity CatalogのDelta Lakeに変換できるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/10f6f1abc6bd8d1f8915 | Databricksではデフォルトですべての読み書きにDelta Lakeを使用しており、オープンソースのDelta Lakeプロトコルによって提供されるACID保証の上に成り立っています。
原子性(Atomicity)とは、すべてのトランザクションが完全に成功するか、完全に失敗するかのいずれかになることを意味します。
一貫性(Consistency)は、同時のオペレーションにおいて、ある状態のデータがどの様に観測されるのかに関して保証します。
分離性(Isolation)は同時のオペレーションが違いにどの様に競合するのかに関するものです。
耐久性(Durability)はコミットされた変更が永続的であることを意味します。
多くのデータ処理、ウェアハウジングの技術ではACIDトランサクションがあると言及されていますが、特定の保証内容はシステムによって異なり、Databricksにおけるトランザクションは皆様が使われている他のシステムとは異なる場合があります。 | DatabricksにおけるACID保証とは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/10f6f1abc6bd8d1f8915 | Databricksではテーブルレベルでトランザクションを管理します。トランザクションは常に一度に一つのテーブルに対して適用されます。同時実行されるトランザクションを管理するために、Databricksでは楽観的コンカレンシー制御を使用します。これは、テーブルの読み書きにおいてロックを行わず、デッドロックが発生しないことを意味します。
デフォルトでは、Databricksでは読み込みにおいてはスナップショットのアイソレーション、書き込みにおいてはwrite serializableのアイソレーションを提供します。Write serializableアイソレーションは、スナップショットのアイソレーションよりも強力な保証を行いますが、書き込み時にのみこの強力なアイソレーションを適用します。
複数のテーブルを参照する読み込みオペレーションは、アクセス時の現行テーブルバージョンを返却しますが、参照しているテーブルを変更する可能性がある同時実行されているトランザクションに干渉しません。
Databricksでは複数のオペレーションを一つのトランザクションにグループ化できるBEGIN/END構文は提供していません。複数のテーブルを変更するアプリケーションは、直列化された形でそれぞれのテーブルにトランザクションをコミットします。MERGE INTOを用いることで、テーブルに対するインサート、アップデート、デリートを一つの書き込みトランザクションにまとめることができます。 | Databricksにおけるトランザクションはどの様なスコープなのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/10f6f1abc6bd8d1f8915 | トランザクションログがコミットの原子性を制御します。トランザクション中は、テーブルを構成するファイルディレクトリにデータファイルが書き込まれます。トランザクションが完了すると、トランザクション中に書き込まれたすべてのファイルへのパスを含む新規エントリーがトランザクションログにコミットされます。それぞれのコミットはテーブルバージョンを増加させ、読み込みオペレーションで新たなデータファイルが参照できる様になります。テーブルの現在の状態は、トランザクションログにおいて適正とマークされたすべてのファイルから構成されます。
トランザクションログが新規バージョンを記録しない限り、データファイルは追跡されません。テーブルにデータファイルを書き込んだ後にトランザクションが失敗すると、これらのデータファイルがテーブルの状態を破損させることはありませんが、このファイルはテーブルの一部とはなりません。VACUUMオペレーションは、失敗したトランザクションによる未コミットのファイルを含む未追跡のデータファイルの全てを削除します。 | Databricksではどのように原子性を実装しているのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/10f6f1abc6bd8d1f8915 | Databricksでは、すべてのデータファイルとトランザクションログを格納するためにクラウドオブジェクトストレージを使用します。クラウドオブジェクトストレージは高い可用性と耐久性を提供します。トランザクションは完全に成功するか完全に失敗するかのいずれかであり、クラウドオブジェクトストレージに格納されるデータファイルとともにトランザクションログが存在し、Databricksのテーブルは格納されているクラウドオブジェクトストレージの耐久性保証を受け継ぎます。 | Databricksではどのように耐久性を実装しているのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/10f6f1abc6bd8d1f8915 | Delta Lakeは書き込みにおけるトランザクション保証を提供するために、楽観的コンカレンシー制御を使用します。この機構のもとで、書き込みは3つのステージでオペレーションされます
読み込み: どのファイルを修正(再書き込み)する必要があるのかを特定するために、利用できる最新バージョンのテーブルを(必要であれば)読み込みます。
追加のみを行う書き込みは、書き込み前にテーブルの現在の状態を読み込みません。スキーマの検証ではトランザクションログのメタデータを活用します。
書き込み: テーブルの定義で使用されているディレクトリにデータファイルを書き込みます。
検証とコミット:
スナップショットを読み込んだ以降、同時処理でコミットされた他の変更と提案された変更が競合しないかどうかをチェックします。
競合しない場合、ステージングされたすべての変更は新規バージョンのスナップショットとしてコミットされ、書き込みのオペレーションが成功します。
競合する場合、同時実行更新の例外で書き込みオペレーションが失敗します。失敗することによってデータの破損を防ぎます。
楽観的コンカレンシーは、皆様のデータに対する同時実行トランザクションの多くが他のトランザクションと競合しないが、競合は起こりうるものであるという前提に立っています。Databricksにおけるアイソレーションレベルと書き込みの競合をご覧ください。 | Databricksではどのように一貫性を実装しているのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/10f6f1abc6bd8d1f8915 | Databricksでは、デフォルトですべてのテーブルへの書き込み、更新でwrite serializableアイソレーションを使用します。すべてのテーブル読み込みでは、スナップショットアイソレーションが使用されます。
書き込みの高スループットを実現するために、書き込みのシリアライズ可能性と楽観的コンカレンシー制御が連携して動作します。現行の適正なテーブルの状態が常に利用でき、任意のタイミングでテーブルの書き込みをスタートすることができます。同時実行される読み込み処理は、メタストアとクラウドリソースのスループットによってのみ制限を受けます。 | Databricksではどのように分離性を実装しているのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e6b4791cb21b57e05059 | はい、MLflow.spark.autologでモデルをトラッキングする際に使うSparkデータソースの情報をMLflowで記録することができます。Delta Lakeと組み合わせることで、データのバージョンも追跡できる様になります。 | mlflow.spark.autologによるデータソース(ファイルパス、バージョン)のトラッキングが可能でしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/cc0321ad38a3c30c0dea | はい、Amazon QuickSightがDatabricksをサポートしています。Databricksレイクハウスに格納されているデータを用いて、QuickSightによる可視化が可能となりました。 | DatabricksでAmazon QuickSightをサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d58525efa9e19b7b2fa0 | 取り込み時間クラスタリングは、データ取り込みを行う時間に基づいた自然なクラスタリングを可能にするDatabricksの書き込みの最適化機能です。取り込み時間クラスタリングによって、テーブルのクラスタリングは取り込み時間によってメンテナンスされ、日付や時間でフィルタリングするクエリーにおけるデータスキッピングによって、劇的なクエリーパフォーマンスの改善を実現し、クエリーに回答するために読み込む必要があるファイルの数を劇的に削減します。これを行うことで、時系列ファクトテーブルのレイアウトを最適化するためにお客様は作業することなしに、すぐに素晴らしいデータスキッピングを活用できる様になります。 | 取り込み時間クラスタリング(Ingestion Time Clustering) とは何でしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d58525efa9e19b7b2fa0 | 現時点では、お客様は優れたパフォーマンスのためにデータレイアウトを最適化するために2つのパワフルなテクニックを利用することができます。パーティショニングとz-orderingです。データレイアウトに対するこれらの最適化技術によって、クエリーが読み込む必要があるデータ量を劇的に削減し、オペレーションごとにテーブルのスキャンに必要な時間を削減することができます。
パーティショニングやz-orderingから得られるクエリーパフォーマンスは大きなものではありますが、いくつかのお客様においては、これらの最適化技術を実装、メンテナンスすることが困難となっていました。多くのお客様は、どのカラムを使用するのか、自分達のテーブルに対してz-orderを実行するかどうか、どの程度の頻度で実行するのか、パーティショニングが有用なのか、害を及ぼすのがいつなのかに関する質問を持っています。これらのお客さまの懸念を解決するために、我々はユーザーのアクション無しにこれらの最適化技術を提供することを目指しました。 | Deltaにおけるデータクラスタリングに関連する課題は何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d58525efa9e19b7b2fa0 | ベンチマークを行うために、大規模オンライン小売業者と取り組みを行い、彼らの分析データを表現するベンチマークを作成しました。このお客様のシナリオにおいては、売上が発生するたびに売上レコードが生成され、ファクトテーブルに取り込まれます。このテーブルに対するクエリーの多くは、多くの時間ベースの分析ワークロードでは共通のパターンにあるように、特定の時間ウィンドウで集計された売上レコードを返却します。このベンチマークでは、新規データ取り込みの時間、DELETEオペレーションの実行時間、さまざまなSELECTクエリーを計測し、取り込み時間クラスタリングにおけるクラスタリング保持機能を検証するために、全てを逐次実行しました。
クラスタリングの保持に追加の処理があるにもかかわらず、取り込み時間クラスタリングによる性能劣化は認められませんでした。一方、DELETEとSELECTクエリーでは劇的なパフォーマンス改善が認められました。取り込み時間クラスタリングなしでは、DELETE文は意図したクラスタリングを解体することで、データスキッピングの効果を削減し、ベンチマークにおける以降のSELECT文のパフォーマンスをスローダウンさせました。取り込み時間クラスタリングが保持されることで、SELECTクエリーは平均19倍パフォーマンスが改善され、オリジナルの取り込み順で意図されたクラスタリングを保持することで、テーブルのクエリーに必要な時間を劇的に削減しました。 | 取り込み時間クラスタリングされたテーブルに対する現実世界のクエリーパフォーマンスの結果を知りたいです? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ef2fb0856c70ced0e57a | サーバレスリアルタイム推論エンドポイントは、プロダクション用途を意図しており、秒間3000クエリー(QPS)までをサポートすることができます。サーバレスリアルタイム推論エンドポイントは、自動でスケールアップ・ダウンするので、エンドポイントはスコアリングのリクエストのボリュームに応じて自動で調整することを意味します。リクエストがない際にはノード数を0にまでスケールダウンすることも可能です。 | Databricksのサーバレスリアルタイム推論エンドポイントとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/8521f738c9fbb4097d4e | いくつのパターンがあります。2つの一般的なパターンを説明します。一つ目はコード・デプロイです。このパターンにおいては、モデルをトレーニングするコードは開発環境で開発でされます。同じコードがステージング、プロダクションに移行します。モデルはそれぞれの環境でトレーニングされます: 最初はモデル開発の一部として開発環境でトレーニングされ、インテグレーションテストの一部としてステージングで(限定的なデータのサブセットに対して)トレーニングされ、プロダクション環境では最終モデルを生成するために(完全なプロダクションデータに対して)トレーニングされます。二つ目はモデルのデプロイです。このパターンでは、モデルアーティファクトは開発環境のトレーニングコードによって生成されます。アーティファクトはプロダクションにデプロイされる前に、ステージング環境でテストされます。 | Databricksにおける機械学習モデルのデプロイメントのパターンを知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/8521f738c9fbb4097d4e | MLOpsのコードデプロイというアプローチの利点:
プロダクションデータへのアクセスが制限されている企業においては、このパターンを用いることでプロダクション環境のプロダクションデータを用いてトレーニングを行うことができます。
トレーニングコードはプロダクションに向けてレビュー、テスト、承認されるので、自動モデル再トレーニングはより安全になります。
サポートするコードはモデルトレーニングコードと同じパターンに従います。両方ともステージングのインテグレーションテストを通ることになります。 | MLOpsのコードデプロイというアプローチの利点は何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/8521f738c9fbb4097d4e | MLOpsのコードデプロイというアプローチの欠点:関係者にコードを受け渡すためのデータサイエンティストの学習曲線は急峻なものになります。事前定義済みのテンプレートやワークフローが役立ちます。また、このパターンにおいては、データサイエンティストはML固有の問題を特定、修正できる知識を持っているので、プロダクション環境からトレーニング結果をレビューできる様になっている必要があります。 | MLOpsのコードデプロイというアプローチの欠点は何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/8521f738c9fbb4097d4e | 以下の条件が一つ以上当てはまる場合には、モデルデプロイのアプローチを検討すべきです。
モデルのトレーニングが非常に効果、あるいは再現が困難。
単一のDatabricksワークスペースで全ての作業が行われた。
外部のリポジトリやCI/CDプロセスを使っていない。 | どの場合はMLOpsのモデルデプロイというアプローチを検討すべきか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/8521f738c9fbb4097d4e | MLOpsのモデルデプロイというアプローチの利点:データサイエンティストへの引き継ぎが簡単です。
モデルトレーニングが高コストの場合、モデルトレーニングが一回のみで済みます。 | MLOpsのモデルデプロイというアプローチの利点は何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/8521f738c9fbb4097d4e | MLOpsのモデルデプロイというアプローチ欠点:
開発環境からプロダクションデータにアクセスできない場合(セキュリティ上の理由からあり得ることです)、このアーキテクチャは実現できません。
このパターンではモデルの再トレーニングの自動化はトリッキーです。開発環境で再トレーニングを自動化することはできますが、プロダクションにモデルをデプロイする責任を持つチームは、結果得られるモデルをプロダクションレディとして受け入れられないかもしれません。
特徴量生成、推論、モニタリングで使用するパイプラインのようなコードは、別にプロダクションにデプロイする必要があります。 | MLOpsのモデルデプロイというアプローチ欠点は何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/08f7728b9001e763ae56 | はい、可能です。Databricks AutoMLでトレーニングを実行する際に、Databricks Feature Storeの特徴量テーブルと連携できるようになりました。 | 特徴量ストア(Feature store)のテーブルを使ってAutoMLの実行が可能でしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/08f7728b9001e763ae56 | Databricks機械学習ランタイム11.3以降では、分類、回帰問題における入力データセットを拡張するために、Feature Storeの既存の特徴量テーブルを使用することができます。
既存の特徴量テーブルを使うには、AutoMLのUIで特徴量テーブルを選択するか、AutoMLランの設定でfeature_store_lookupsを設定します。 | AutoMLでどのように特徴量ストア(Feature store)のテーブルを使うか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/7457d7e04d80d3c4eec2 | モデルの評価はMLライフサイクルの重要なパートです。これによって、データサイエンティストは自身のモデルのパフォーマンスの計測、解釈、説明が可能となります。モデルがなぜそのように動作しているのかに関して洞察を提供することで、モデル開発のタイムフレームを加速します。特にMLモデルの複雑性が増加するにつれて、MLモデルのパフォーマンスを迅速に観測、理解できる能力は、ML開発ジャーニーを成功させるためには重要となってきます。 | なぜモデルを評価するのでしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/7457d7e04d80d3c4eec2 | ユーザーは分類モデルと回帰モデルの両方の評価をサポートするmlflow.evaluate APIを通じてpython_function (pyfunc)モデルフレーバーのMLflowモデルのパフォーマンスを評価することができます。これは、ビルトインのタスク固有のパフォーマンスメトリクス、パフォーマンスのプロット、モデルの説明を計算してMLflowトラッキングサーバーに記録します。 | MLflowにおけるモデル評価はどのように実施しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/7457d7e04d80d3c4eec2 | カスタムメトリクスでモデルを評価するには、シンプルにカスタムメトリックの関数のリストをmlflow.evaluate APIに渡します。カスタムメトリックの関数は、以下の順序で2つの必須のパラメーター、1つのオプションのパラメーターを受け取る必要があります:
eval_df: predictionとtargetカラムを持つPandasあるいはSparkデータフレーム。
例:モデルの出力が3つの値のベクトルである場合、データフレームeval_dfは以下の様になります。
builtin_metrics: ビルトインメトリクスを含むディクショナリー。
例:回帰モデルにおいては、builtin_metricsは以下の様になります。
(オプション)artifacts_dir: カスタムメトリック関数が生成されたアーティファクトをMLflowに記録する前に一時的に保存するために使用する一時ディレクトリのパス。
例:環境に応じて見え方が異なることに注意してください。 | ビルトインの評価メトリックのセットに含まれないカスタムメトリクスを用いてMLflowモデルをどうやって評価するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/7457d7e04d80d3c4eec2 | MLflowでは、分類、回帰モデルの両方に対して一般的に使われるパフォーマンスやモデル説明可能性に関するメトリクスのセットを同梱していまうs。これらのメトリクスによるモデルの評価はわかりやすいものです。必要なのは、テストデータとターゲットを含む評価データセットを作成し、mlflow.evaluateを呼び出すことです。
モデルのタイプによって、異なるメトリクスが計算されます。ビルトインメトリクスに関する最新の情報については、mlflow.evaluateのAPIドキュメントのDefault Evaluator behavior sectionをご覧下さい。 | ビルトインのメトリクスを用いてMLflowモデルをどうやって評価するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/7457d7e04d80d3c4eec2 | mlflow.evaluateによって返却されるEvaluationResultオブジェクトを通じてプログラムからアクセスすることができます。 | プログラムからMLflowモデルの評価結果にどうやってアクセスするか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/04c713210fca7432b871 | INFORMATION_SCHEMAは、HIVE_METASTOREカタログ以外の全てのカタログに存在するSQL標準ベースのシステム提供のスキーマです。 | Databricksのインフォメーションスキーマは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/04080efd50b1ea5c6804 | Fivetranはレイクハウスへの自動データ取り込みことに活用できます。SalesforceやMySQLからのデータ取り込みにFivetranを使い、高信頼、メンテナンス可能、テスト可能なデータパイプラインを構築するための宣言型ETLフレームワークであるDelta Live Tables(DLT)を用いてデータを変換します。
Fivetranのマネージドコネクターによって、ユーザーは200以上のソースからDatabricksレイクハウスプラットフォームへのデータ取り込みを完全に自動化できます。
コネクターを設定、テストするためのユーザーフレンドリーなUI。
スキーマドリフト対応を含む自動スキーマ管理。
API障害、レートリミットなどへの対応。
完全、インクリメンタルなロード。 | Fivetranを使ってどういうことができますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/50c5a75caff8a6fb721d | cloneコマンドを用いてDatabricksにある既存のDelta Lakeテーブルのコピーを作成することができます。ディープあるいはシャロー(浅い)クローンを作成することができます。 | 既存のDelta Lakeテーブルのコピーをどのように作成するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/50c5a75caff8a6fb721d | クローンはDatabricksランタイムでデフォルトで有効化されている機能です。 | クローンはDatabricksランタイムでデフォルトで有効化されているか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/50c5a75caff8a6fb721d | テーブルのクローンにディープクローンとシャロークローンの二種類があります。
ディープクローンは、既存テーブルのメタデータに加えて、ソーステーブルのデータをクローンのターゲットにコピーします。さらに、ソーステーブルに対してDeltaテーブルに書き込みを行うストリームを停止し、クローンのターゲットでコピーした地点から再開できる様に、ストリームのメタデータもクローンされます。
シャロークローンは、クローンターゲットにデータファイルをコピーしないクローンです。テーブルメタデータはソースと同じものになります。これらのクローンは低コストで作成できます。
ディープクローン、シャロークローンに対するすべての変更はクローン自身に反映され、ソーステーブルには影響を与えません。 | テーブルのクローンにいくつ種類があるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/50c5a75caff8a6fb721d | ディープクローンは、既存テーブルのメタデータに加えて、ソーステーブルのデータをクローンのターゲットにコピーします。さらに、ソーステーブルに対してDeltaテーブルに書き込みを行うストリームを停止し、クローンのターゲットでコピーした地点から再開できる様に、ストリームのメタデータもクローンされます。 | ディープクローンでは何のコピーを作成しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/50c5a75caff8a6fb721d | シャロークローンは、テーブルメタデータをクローンします。クローンされるメタデータには、スキーマ、パーティション情報、不変性、NULL可能性が含まれます。クローンターゲットにデータファイルをコピーしないので、シャロークローンはソースディレクトリのデータファイルを参照します。テーブルメタデータはソースと同じものになります。これらのクローンは低コストで作成できます。 | シャロークローンでは何のコピーを作成しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/50c5a75caff8a6fb721d | クローンされるメタデータには、スキーマ、パーティション情報、不変性、NULL可能性が含まれます。ディープクローンにおいてのみ、ストリームとCOPY INTOのメタデータもクローンされます。クローンされないメタデータは、テーブルの説明文とユーザー定義のコミットメタデータです。 | ディープクローンにおいてクローンされるメタデータには何が含まれますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/50c5a75caff8a6fb721d | クローンされたテーブルは、ソーステーブルとは独立した履歴を持ちます。クローンされたテーブルに対するタイムトラベルは、ソーステーブルに対して同じ入力をしたとしても別の挙動をします。 | クローンされたテーブルのタイムトラベルはどうなるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/a195b1fc636a4613852b | GraphFramesの最適化されたインストレーションが含まれているので、Databricks機械学習ランタイムを使うことをお勧めします。 | グラフ分析を行うためにどの様にGraphFramesを使うのか | closed_qa |
|
https://qiita.com/taka_yayoi/items/d138938d5e3c9df76f10 | 構造化ストリーミングは、ストリーミングクエリーにおける耐障害性とデータの一貫性を提供します。Databricksワークフローを用いることで、構造化ストリーミングの障害時に再起動する様に容易に設定することができます。ストリーミングクエリーのチェックポイント作成を有効化することで、障害の後にクエリーを再起動することができます。再起動されたクエリーは障害時点から処理を継続します。 | 構造化ストリーミングクエリーの障害が発生したらどうしたらいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d138938d5e3c9df76f10 | クエリーをスタートする前に、checkpointLocationオプションを指定すると有効になります。 | 構造化ストリーミングクエリーのチェックポイント作成をどうのように有効化するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d138938d5e3c9df76f10 | いいえ、複数のクエリーで同じロケーションを使ってはいけません。チェックポイントのロケーションは、クエリーを特定する重要な情報のすべてを保持します。それぞれのクエリーごとのチェックポイントロケーションを設けるべきです。 | 複数のクエリーで同じロケーションを使えますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/783af5b7b970473c9614 | コントロールプレーンはDatabricksによって完全に管理され、Web UI、ノートブック、ジョブ、クエリー、クラスターマネージャから構成されています。 | コントロールプレーンとは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/783af5b7b970473c9614 | データプレーンはお使いのAWSアカウントに存在しており、データを処理するためにDatabricksクラスターが動作しています。 | データプレーンとは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/783af5b7b970473c9614 | クラウドオブジェクトストアは、他のクラウドデータベースやオンプレミスの代替案よりも、通常は安価に様々な種類のデータを格納できるので、レイクハウスアーキテクチャにおけるキーコンポーネントとなっています。AWS DatabricksのAmazon Simple Storage (S3)、Azure DatabricksのAzure Data Lake Storage、Databricks on Google CloudのGoogle Cloud Storage (GCS)はクラウドオブジェクトストアです。 | レイクハウスアーキテクチャにおけるキーコンポーネントは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | 特徴量ストアは、データサイエンティストが特徴量を発見、共有できる集中管理されたリポジトリであり、モデルトレーニングと推論に使われる特徴量の値を計算するために同じコードが使われることを確実にします。 | Databricks Feature Store(特徴量ストア)とは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | 特徴量ストアが解決する課題は、複数人のデータサイエンティストが同じデータを基点として機械学習を行う際に、それぞれが別個に特徴量エンジニアリングを行なって、各自で特徴量のデータ(テーブルやデータフレーム)を作ってしまい、特徴量の用途は同じながらも微妙にロジックや結果が異なり、しかも、作りっぱなしで再利用されないということです。
さらに、モデルをトレーニングする際にモデルに入力する特徴量と、推論の際にモデルに入力する特徴量は同じロジックで計算されるべきですが、各自でロジックを作っていると、トレーニングで用いる特徴量と、推論で用いられる特徴量が異なるロジックで計算されてしまうということが起こってしまいます。これによって、期待した精度が出ないということも起こり得ます。これを「オフライン(トレーニング)とオンライン(推論)の偏り」と呼びます。 | Feature store (特徴量ストア)で解決する課題は何でしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | Databricksが提供する特徴量ストアであるDatabricks Feature Storeは、他のDatabricksのコンポーネントと完全にインテグレーションされています。
発見可能性。DatabricksワークスペースからアクセスできるFeature Store UIを用いることで、既存の特徴量をブラウズ、検索することができます。
リネージュ。Feature Storeを用いて特徴量テーブルを作成すると、特徴量テーブルを作成するために使用されたデータソースが保存され、アクセス可能になります。特徴量テーブルのそれぞれの特徴量に対して、特徴量を使用しているモデル、ノートブック、ジョブ、エンドポイントにもアクセスすることができます。
モデルスコアリング、モデルサービングとのインテグレーション。モデルをトレーニングするためにFeature Storeからの特徴量を使う際、モデルは特徴量メタデータと一緒にモデルがパッケージングされます。バッチスコアリングやオンライン推論にモデルを使う際、Feature Storeから自動で特徴量を取得します。呼び出し元は、これらに関して知る必要や、新規データをスコアリングするために特徴量を検索、joinするロジックを含める必要はありません。これによって、モデルのデプロイメントと更新をより簡単なものにします。
ポイントインタイムの検索。Feature Storeでは、ポイントインタイムの正確性を必要とする時系列、イベントベースのユースケースをサポートしています。 | Databricks Feature Storeはどのような機能を提供するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | Databricks Feature Storeを用いることで、特徴量エンジニアリングのロジックと特徴量データを、トレーニングや推論のノートブックから分離することができます。これによって、特徴量の再利用を促進し、オフライン・オンラインの偏りを回避することができます。 | Feature Storeを利用してどうやって特徴量の再利用を実現するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | 特徴量テーブルの値を更新するには、write_tableを使います。 | 特徴量テーブルの値を更新するにはどの関数を使うか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | はい、サポートしています。df.isStreamingがtrueに設定されたデータフレームを渡すことでFeature Storeにストリーミングすることができます: | Feature Storeはストリーミングデータをサポートするか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | トレーニングデータセットは以下から構成されます:
生の入力データ
特徴量ストアの特徴量
生の入力データは以下を含んでいるので必要になります:
特徴量とjoinするために使用される主キー。
特徴量ストアにないtrip_distanceのような生の特徴量。
モデルトレーニングに必要なfareのような予測ターゲット。
必要な特徴量それぞれにFeatureLookupを作成することで、モデルをトレーニングするための特徴量をFeature Storeからロードします。 | どのようにFeature Storeからトレーニングデータセットが作成されるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | TrainingSetはfs.create_training_set(..)が呼び出されると作成されるモデルのトレーニングで使用するFeature Storeからの特定の特徴量を選択するオブジェクトです。 | Feature StoreのTrainingSetは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | いいえ、Feature StoreのTrainingSetは特定の特徴量を選択するオブジェクトです。モデルのトレーニングのためデータフレームに変換する必要があります。 | Feature StoreのTrainingSetはデータフレームですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | バッチデータに対してモデルを評価するためにscore_batch APIを使い、Feature Storeから必要な特徴量を取得します。 | バッチデータに対してモデルを評価するためにFeature StoreのどのAPIを使いますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/12d5361adeac713b58ba | バッチデータに対してモデルを適用するためにscore_batch APIを使い、Feature Storeから必要な特徴量を取得します。 | FeatureStoreClient.log_modelを用いて記録したモデルを使ってバッチ推論にどのように実行しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | 特徴量テーブルはDeltaテーブルと他のメタストアに格納されます。 | Feature storeの特徴量テーブルの実データはどこに格納されていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | 特徴量テーブルのメタデータは、テーブルの生成元となるデータソース、テーブルを作成、更新したノートブック、ジョブを追跡します。 | Feature storeの特徴量テーブルのメタデータは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | リアルタイム推論のために、特徴量テーブルをオンラインストアに公開する必要です。 | 特徴量テーブルを使ってリアルタイム推論ができるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | グルーピングと検索を容易にするために、タグを作成し、特徴量テーブルに関連づけることができます。
| 特徴量テーブルのグルーピングと検索を容易にするのはどうしたらいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | オフラインの特徴量ストアは特徴量の検索、モデルのトレーニング、バッチ推論に使用されます。これにはDeltaテーブルの特徴量テーブルが含まれます。
オンライン特徴量ストアは、リアルタイム推論に用いられる低レーテンシーのデータベースです。Databricks Feature Storeがサポートしているオンラインストアについては、Work with online storesをご覧ください。 | Feature storeのオフラインストアとオンラインストアの違いを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | はい、バッチ書き込みに加えて、Databricks Feature Storeはストリーミングをサポートします。ストリーミングのソースから特徴量を特徴量テーブルに書き込むことができ、特徴量の計算には生データのストリーミングを特徴量に変換するために構造化ストリーミングを活用できます。
オフラインストアの特徴量テーブルからオンラインストアにストリーミングすることも可能です。 | Databricks Feature Storeはストリーミングをサポートしますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | トレーニングセットは特徴量のリストと生のトレーニングデータ、ラベル、特徴量を検索するための主キーから構成されます。特徴量ストアから特徴量を抽出してトレーニングセットを作成し、モデルトレーニングの際の入力データにすることができます。 | Feature Storeから作成したトレーニングセットは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | Databricks Feature Storeの特徴量を用いてトレーニングした機械学習モデルは、特徴量との紐付けを維持します。推論を行う際にモデルが特徴量ストアから特徴量を取得することも可能です。モデルの呼び出し下は、モデルに使われた特徴量の主キー(例えば、user_id)を指定するだけで、モデルが特徴量ストアから必要な特徴量を取得します。
バッチ推論においては、オフラインストアから特徴量が取得され、スコアリングの前にデータと結合されます。リアルタイム推論においては、特徴量はオンラインストアから取得されます。 | Databricks Feature Storeの特徴量を用いてトレーニングした機械学習モデルのパッケージングは何かできるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | モデルを特徴量のメタデータとパッケージングするには、FeatureStoreClient.log_model()を使用します。 | モデルを特徴量のメタデータとパッケージングする場合にどの関数を使いますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | トレーニングセットのカラム名のFeatureLookupで引数lookup_keyを使います。FeatureStoreClient.create_training_setは、特徴量テーブルが作成された際に指定された主キーの順序を用いて、lookup_key引数で指定されたトレーニングセットのカラム間の順序ありjoinを行います。 | 検索キーが主キーにマッチしない際にトレーニングデータセットがどのように作成されるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | FeatureLookupでオプションの引数output_nameを使います。指定される名前がTrainingSet.load_dfで返却されるデータフレームの特徴量名として使用されます。 | 異なる特徴量テーブルから同じ名前を持つ二つの特徴量を含む場合、トレーニングデータセットをどのように作成するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/1afe4bc4e720b6b50b33 | はい、できます。教師なし機械学習モデルのトレーニングセットを作成する際には、label=Noneを設定します。 | 教師なし機械学習モデルのトレーニングデータセットを作成できるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/c6785fc3c93c89a204f6 | デフォルトでは、特徴量メタデータがパッケージングされたモデルは、推論時にFeature Storeから特徴量を取得します。スコアリングでカスタムの特徴量を使う際には、FeatureStoreClient.score_batch()に渡すデータフレームにそれらを含めます。
| 特徴量メタデータがパッケージングされたモデルのスコアリングの際にカスタム特徴量をどのように使用するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/c6785fc3c93c89a204f6 | はい、Feature Storeの特徴量とFeature Store外のデータを組み合わせてモデルをトレーニングすることができます。特徴量のメタデータをモデルにパッケージングすると、モデルは推論時にFeature Storeから特徴量を取得します。 | Feature Storeの特徴量とFeature Store外のデータを組み合わせてモデルをトレーニングすることができるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | MLOpsとは、コード、データ、モデルを管理するための一連のプロセスと自動化されたステップです。これは、DevOps、DataOps、ModelOpsを組み合わせたものです。 | MLOpsとは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | 実行環境は、モデルやデータが作成され、コードによって活用される場所となります。それぞれの実行環境は、計算インスタンス、ランタイム、ライブラリ、自動化されたジョブから構成されます。
MLコードとモデル開発に対して、ステージ間の移行が明確に定義された別々のステージを設けることをお勧めします。例えば、ステージに対する一般的な名称を用いてこのプロセスに従います。
開発
ステージング
プロダクション
| MLOpsを実現するため、推薦の環境設定はありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | Gitバージョンコントロールを使いましょう。 パイプラインやコードバージョン管理のためにGitに格納されるべきです。MLロジックのステージ間の移行を、コードの開発ブランチから、ステージングブランチ、リリースブランチへの移動と解釈することができます。お使いのGitプロバイダーをインテグレーションし、Databricksワークスペースでノートブックやソースコードを同期するために、Databricks Reposをお使いください。また、DatabricksではGit連携、バージョン管理のためにその他のツールも提供しています。Developer tools and guidanceをご覧下さい。 | MLOpsを実現するため、推薦のパイプラインやコードバージョン管理は何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | Deltaテーブルを用いたレイクハウスアーキテクチャにデータを格納しましょう。 お使いのクラウドアカウント内のレイクハウスアーキテクチャにデータを格納すべきです。生のデータと特徴量テーブルの両方が、誰が読み込みでき、誰が編集できるのかを決定するためのアクセスコントロールがなされたDeltaテーブルに格納されるべきです。 | MLOpsのため、推薦のデータ格納場所はどこですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | CIプロセスは主にユニットテストとインテグレーションテスト(CI)を実行します。
ユニットテスト
CIプロセスは自動でソースコードをビルドし、ユニットテストを起動します。テストが失敗するとマージリクエストは却下されます。ユニットテストはデータや他のサービスとはやり取りしません。
3. インテグレーションテスト(CI)
そして、CIプロセスはインテグレーションテストを実行します。インテグレーションテストは全体的に機能が適切に動作することを確実にするために、(特徴量生成、モデルトレーニング、推論、モニタリングを含む)すべてのパイプラインを実行します。ステージング環境は、合理性があるといえるくらいプロダクション環境と類似したものである必要があります。 | MLopsの継続的インテグレーション(CI)プロセスでは何を行うか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | CDプロセスが、新たなモデル(モデルレジストリ上ではstage=None)を取り込んでテストし、テストに成功したらデプロイ(stage=Productionにプロモート)します。CDはモデルレジストリのwebhookあるいはお使いのCDシステムで実装することができます。
このパイプラインには3つのタスクがあります:
コンプライアンスチェック。 これらのテストは、モデルレジストリからモデルをロードし、あなたの組織が必要とするコンプライアンスチェック(タグやドキュメントなど)を行い、テスト結果に基づいてリクエストを承認あるいは却下します。コンプライアンスに人間の専門性が必要である場合、この自動化ステップは手動によるレビューのために統計情報やビジュアライゼーションを生成します。結果の如何を問わず、タグのメタデータや説明文のコメントを用いて、モデルバージョンの結果をモデルレジストリに記録します。
手動でステージ移行や移行リクエストを管理するためにMLflowのUIを使うことができます。あるいは、自動化するためにMLflow APIやwebhookを使うことができます。モデルがコンプライアンスチェックを通過したら、移行リクエストは承認され、モデルはstage=Stagingにプロモートされます。モデルが失敗すると、移行リクエストは却下されモデルはモデルレジストリでstage=Archivedに移行されます。
ステージングとプロダクションの比較。 パフォーマンスの劣化を防ぐために、現行のプロダクションバージョンとステージングにプロモートされたモデルのパフォーマンスを比較すべきです。比較のメトリクスや方法はユースケースに依存し、カナリアデプロイメントやA/Bテストや他の手法を含めることもできます。テストの比較結果はレイクハウスのメトリクステーブルに保存されるべきです。
これが最初のデプロイメントであり、まだプロダクションバージョンがない場合には、ステージングバージョンをベースラインとしてのビジネス経験則や他の閾値と比較することができます。
モデルのプロダクションへの移行のリクエスト。 候補モデルが比較テストを通過したら、モデルレジストリでstage=Productionへの移行をリクエストすることができます。MLflowを用いて手動、あるいはMLflow APIやwebhookを用いて自動でこれを行うことができます。また、この時点で人間による承認を行うことは良いアイデアです。これが、モデルがプロダクションにリリースされ、既存のビジネスプロセスに組み込まれる前の最後のステップです。コンプライアンスチェック、パフォーマンスの比較、自動化が難しいその他のチェックを検証するための人間によるレビューを含めることもできます。 | MLopsの継続的デプロイメント(CD)プロセスでは何を行うか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | 入力データとモデルの予測結果の統計情報(データドリフトやモデルのパフォーマンスなど)、計算処理の性能(エラーやスループット)をモニタリングすべきです。 | モデルのモニタリングは何を監視するか? | closed_qa |
Subsets and Splits