context
stringclasses 6
values | source
stringlengths 0
149
| response
stringlengths 4
1.6k
| instruction
stringlengths 5
137
| category
stringclasses 1
value |
---|---|---|---|---|
https://qiita.com/taka_yayoi/items/2d6eaa8aafa39fc8bddf | 最新データを用いてモデルの再トレーニングを行うスケジュールジョブを作成するか、データやモデルにドリフトを検知した際に再トレーニングを起動するためのモニターをセットアップすることができます。モデルモニタリングメトリクスがパフォーマンスの問題を示した際には、データサイエンティストは開発環境に戻って新たなモデルバージョンを開発する必要があるかもしれません。 | モデルの再トレーニングはどの場合実施するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ced86daa2606232c308a | Databricksマーケットプレイスで欲しいデータ製品を探すには、シンプルに提供者のリスティングをブラウズ、検索し、欲しいデータ製品へのアクセスをリクエストします。いくつかのデータ製品はリクエストを行い、利用条件に同意すればすぐに利用できます。他のものにおいては、提供者の承認と提供者のインタフェースを用いたトランザクションの完了が必要となることがあります。いずれの場合でも、マーケットプレイスを支援するDelta Sharingプロトコルはセキュアに共有データにアクセスできることを保証します。 | データ利用者はどのようにDatabricksマーケットプレイスのデータにアクセスできるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ced86daa2606232c308a | Databricksマーケットプレイスは、データ提供者に対してデータサイエンティストやアナリストが自分達の組織の成功のために活用できるデータ製品を共有するためのセキュアなプラットフォームを提供します。Databricksマーケットプレイスでは、共有データに対するセキュリティとコントロールを提供するためにDelta Sharingを活用しています。公開データ、無料のサンプルデータ、有償のデータオファリングを共有することができます。データセットに加えて、ユースケースやお客様がデータ製品の利点を完全に活用できるようにする方法を示すために、Databricksノートブックやその他のコンテンツを共有することもできます。 | データ提供者はDatabricksマーケットプレイスにどのようにデータ製品を提供できるのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/ced86daa2606232c308a | Databricksマーケットプレイスでデータ製品を提供するには、以下が必要です:
Databricksアカウントとプレミアムワークスペース
Databricks Data Partner Programを通じた提供者の申込み | Databricksマーケットプレイスでデータ製品を提供するには、何か必要ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/649b937683f37e52289a | はい、CREATE TABLE LIKEを使って既存のテーブルやビューの定義やメタデータを用いてテーブルを作成することができます。 | 既存のテーブルやビューの定義やメタデータを用いてテーブルを作成できるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/649b937683f37e52289a | CREATE TABLE LIKEを使ってDeltaテーブルからDeltaテーブルを作成する際には、以下がコピーされます。
コメント
カラム
パーティションカラム
設定
テーブル制約
Deltaプロトコル
。テーブル定義やメタデータのみがコピーされるので、テーブル自体は空です。 | CREATE TABLE LIKEを使ってコピーされるものは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/97bb6dab205f2fae2896 | 近年のいかなる量の顧客データの管理においては間違いなくPIIの保護が求められます。これは、シンプルな設定ミスによって数百万の機微な顧客レコードが盗まれることになったCapital Oneのデータ漏洩のようにいかなる規模の企業にとって大きなリスクです。ストレージデバイスの暗号化やテーブルレベルのカラムマスキングは効果的なセキュリティ対策ですが、この機微なデータに対する内部の許可されないアクセスは、依然として大きな脅威となります。このため、Databricksにおいて通常のユーザーがテーブルやファイルから機微情報を取得することを制限するソリューションを必要としました。
しかし、機微情報を読み込むビジネスニーズを持つ人たちが読み込めるようにする必要もありました。我々は、それぞれのユーザーのテーブルの読み込み方法に違いを生じさせたくはありませんでした。データ分析やレポート作成におけるクエリーの作成をシンプルにするために、通常の読み込みと復号化された読み込みの両方は、同じDelta Lakeオブジェクトに対して行われる必要がありました。
| PII保護の必要性は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/97bb6dab205f2fae2896 | 暗号化によってでデータを保護するためのソリューションの一つがFernet Pythonライブラリです。 | データを保護するための暗号化に使うツールは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/97bb6dab205f2fae2896 | Fernetは、いくつかの標準的な暗号化プリミティブを用いて構築されている対称性の暗号化を使用します。このライブラリは、データフレームの任意のカラムを暗号化できるようにする暗号化UDFで使用されます。暗号化キーを格納するために、我々のデータ取り込みプロセスのみがアクセスできるようにする設定がなされたDatabricksシークレットを使用します。データがDelta Lakeテーブルに格納されると、社会セキュリティ番号、電話番号、クレジットカード番号、その他のIDのような値を保持するPIIカラムは許可されないユーザーによる読み込みができなくなります。
| Fernetのデータ保護の仕組みを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/97bb6dab205f2fae2896 | UDFはScalaで記述される必要があります。 | UDFを永続化するには何か必要ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/97bb6dab205f2fae2896 | 最初に行う必要があるのは、Databricksで稼働しているHiveインスタンスに追加するUDFを作成することです。このUDFは復号化を実行するために、暗号化書き込みに用いられたのと同じシークレットにアクセスし、このケースでは、クラスターのSpark設定に追加されます。これによって、権限のあるユーザー、権限のないユーザーにこのキーに対するアクセスをコントロールための、クラスターのアクセスコントロールが必要となります。UDFが作成されると、権限のあるユーザーが復号化されたデータを参照するために、ビュー定義でUDFを使えるようになります。 | センシティブなデータが書き込まれ、保護されると、権限のあるユーザーがどのようにセンシティブなデータを読み込むか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/97bb6dab205f2fae2896 | 単一のデータセットに対して2つのビューオブジェクトを作成しており、それぞれが権限のあるユーザー、権限のないユーザー向けのものとなっています。権限のないユーザー向けのビューにはUDFがないので、暗号化された値としてPIIの値を参照します。権限のあるユーザー向けのもう一方のビューにはUDFがあるので、彼らは自身のビジネスニーズのために復号化された値を参照することができます。 | カスタムUDFを持つビューから保護データの読み込みの仕組みを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/97bb6dab205f2fae2896 | Fernet暗号化ライブラリ、ユーザー定義関数(UDF)、Databricksシークレットを組み合わせることでPIIなど情報の暗号化が可能です。 | カラムレベル暗号化手法は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/e4d8c07f9d47b1c17308 | クラスターのメトリクスタブからアクセスできます。左上のドロップダウンでハードウェアが選択されている際には、CPUやメモリーの使用量を確認することができます。 | クラスターのCPUやメモリーの使用量を確認する機能はどこにありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/6909698e0d6f785192bf | Databricks Sparkコネクターを用いることで、別のDatabricksワークうsペースに設定されている計算リソースに接続し、現在のDatabricksワークスペースに結果を返却することができます。クエリーが成功するには、両方のワークスペースでアクティブな計算資源にアクセスできる必要があります。 | 別のDatabricksワークスペースにどのように接続するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/6909698e0d6f785192bf | Databricksワークスペースに、別のDatabricksワークスペースにリンクされる外部テーブルを登録することができます。 | 別のDatabricksワークスペースに外部テーブルを作成することができますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | Databricksレイクハウスプラットフォームは、エンタープライズレベルの大規模データソリューションの構築、デプロイ、共有、維持のための統合されたツールセットを提供します。Databricksは、お使いのクラウドアカウントのクラウドストレージとセキュリティと連携し、あなたに代わってクラウドインフラストラクチャの管理、デプロイを行います。 | Databricksレイクハウスプラットフォームは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | 以下のテクノロジーは、Databricksの従業員によって立ち上げられたオープンソースプロジェクトです。
Delta Lake
Delta Sharing
MLflow
Apache Sparkと構造化ストリーミング
Redash | Databricksの従業員によって立ち上げられたオープンソースプロジェクトの一覧をみたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | Databricksプラットフォームのアーキテクチャは2つの主要なパーツから構成されています: Databricksがプラットフォームとサービスをデプロイ、設定、管理するために使うインフラストラクチャと、Databricksとお客さまとで共同管理するお客さま所有のインフラストラクチャです。
数多くのエンタープライズデータベース企業と異なり、Databricksではプラットフォームを使うためにデータをプロプライエタリなストレージシステム移行することを強制しません。そうではなく、Databricksプラットフォームとお使いのクラウドアカウントの間でセキュアなインテグレーションを設定することでDatabricksワークスペースを構築すると、Databricksはオブジェクトストレージやあなたがコントロールしている連携済みサービスのデータを処理、格納するために、あなたのアカウントのクラウドリソースを用いて、一時的な計算クラスターをデプロイします。
Unity Catalogはこのリレーションシップをさらに拡張し、Databricks内から馴染み深いSQL構文を用いて、データアクセス権限を管理できるようになります。
Databricksは、世界最大かつ最もセキュリティ意識の高いいくつかの企業のセキュリティとネットワーク要件に応えるワークスペースをデプロイしてきています。Databricksは新規ユーザーが使い始めやすいものとなっており、エンドユーザーがクラウドインフラストラクチャを操作する際の負荷や懸念点を排除しますが、経験豊富なデータ、オペレーション、セキュリティチームが必要とするカスタマイズやコントロールを制限しません。 | DatabricksとAWSはどの様に動作するのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | BIから機械学習に至るソリューションを用いて、自分のデータセットを処理、格納、クレンジング、共有、分析、モデリング、マネタイズするためにDatabricksを活用しています。様々なデータペルソナによる数多くのアプリケーションを構築するためにDatabricksプラットフォームを活用することができます。レイクハウスを完全に導入しているお客様は、企業におけるイノベーションと洞察を強化するデータエンジアリングのワークフロー、機械学習モデル、分析ダッシュボードの開発、デプロイに我々の統合プラットフォームを活用しています。 | Databricksは何に使うのか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | Databricksワークスペースは、以下の様なツールを含む、コアとなる多数のデータタスクのためのユーザーインタフェースを提供しています。
インタラクティブなノートブック
ワークフロースケジューラーとマネージャ
SQLエディタとダッシュボード
データ取り込みとガバナンス
データ検索、注釈、探索
計算資源管理
機械学習(ML)エクスペリメントのトラッキング
MLモデルのサービング
特徴量ストア
Gitによるソースコントロール | Databricksワークスペースで提供しているユーザーインタフェースのリストをください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | ワークスペースのUIに加えて、以下のツールを用いることでプログラムからDatabricksとやり取りすることができます。
REST API
CLI
Terraform | ワークスペースのUI以外にDatabricksにアクセスできるツールは何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | Databricksにおけるユースケースは、プラットフォームで処理されるデータや、自分の業務のコアにおいてデータを操作する従業員の数多くのペルソナと同様に多岐にわたります。 | Databricksの一般的なユースケースは何か? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4b394aa45c577dec3675 | Databricksは、比類なきETL(抽出、変換、ロード)体験を提供するために、Apache SparkとDelta Lakeとカスタムツールのパワーを組み合わせます。ETLロジックを組み立てるためにSQL、Python、Scalaを活用することができ、数クリックでスケジューリングされたジョブのデプロイメントをオーケストレーションすることができます。
Delta Live Tablesは、インテリジェントにデータセット間の依存関係を管理し、あなたの仕様に応じてデータをタイムリーかつ正確にデリバリーできる様に、プロダクションのインフラストラクチャをデプロイ、スケールさせることでさらにETLをシンプルなものにします。
Databricksでは、クラウドオブジェクトストレージやデータレイクからデータレイクハウスにインクリメンタルかつ冪等性をもってデータをロードするための効率的かつスケーラブルなツールであるオートローダーを含む数多くのカスタムツールとのデータ取り込み手段を提供しています。 | DatabricksのETLとデータエンジニアリングツールを教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/5601cebd11451032275d | ディメンションモデリングは、モダンデータウェアハウスを構築する際に最も人気のあるデータモデリング手法です。 | ディメンションモデリングは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/5601cebd11451032275d | ディメンションモデルを実装する際に推奨されるベストプラクティスをいくつかを示します。
ディメンションテーブルを非正規化すべきです。モデルの第三正規形あるいはスノーフレーク型ではなく、通常ディメンションテーブルは単一のディメンションテーブルの中で多対1リレーションシップによってflattenすることで、高度に非正規化されます。
異なるディメンションテーブルの属性が同じカラム名やドメインコンテンツを持つ際には、準拠したディメンションを使用してください。この利点は、異なるファクトテーブルからのデータを、それぞれのファクトテーブルと関連づけられた準拠ディメンション属性を用いて、単一のレポートで結合することができるということです。
ディメンションテーブルにおける通常のトレンドは、as-isあるいはas-wasレポートをサポートするために、ディメンションの経年変化を追跡します。異なる要件に基づいてディメンションをハンドリングするために以下の基本的なテクニックを容易に適用することができます。
タイプ1のテクニックでは、ディメンション属性の初期値を上書きします。
最も人気のあるSCDテクニックであるタイプ2のテクニックでは、時間経過と共に追跡される正確な変更点を使用します。
これらは、Delta Live Tables(DLT)実装を用いることで容易に達成することができます。
APPLY CHANGES INTOを用いたDelta Live Tablesによって、容易にSCDタイプ1やSCDタイプ2を実行することができます。
主キーと外部キー制約によって、ユーザーはテーブル間のリレーションシップを理解することができます。
アイデンティティカラムを用いることで、新規行が追加された際にユニークな整数値が自動で生成されます。アイデンティティカラムはサロゲートキーの一形態です。詳細はこちらのブログ記事をご覧ください。
CHECK制約の強制によって、あなたに這い寄るデータ品質や正確性の問題に心配する必要が無くなります。 | ディメンションモデリングのベストプラクティスと推奨事項を知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/4ee41a1865aeaf3ac79c | Feature Storeを用いた典型的な機械学習ワークフローは以下のパスを踏みます。
生のデータを特徴量に変換するコードを記述し、必要な特徴量を格納するSparkデータフレームを作成します。
Feature Storeで特徴量テーブルとしてデータフレームを書き込みます。
特徴量ストアからの特徴量を用いてモデルをトレーニングします。これを行う際、モデルはトレーニングで使われた特徴量の仕様を格納します。モデルを推論に使う際、自動で適切な特徴量テーブルから特徴量を結合します。
モデルをモデルレジストリに登録します。
これで、新規データに対する予測を行う際にモデルを使うことができる様になります。 | Feature Storeを用いた典型的な機械学習ワークフローを知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/4ee41a1865aeaf3ac79c | リアルタイムサービングのユースケースでは、特徴量をオンラインストアに公開します。
推論時には、モデルはオンラインの特徴量ストアから事前計算済みの特徴量を読み込み、モデルサービングエンドポイントにクライアントからリクエストされたデータと結合します。 | Feature Storeを用いてリアルタイムサービングと推論はどのように行いますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4ee41a1865aeaf3ac79c | はい、こちらFeature Storeタクシーサンプルノートブックでは、特徴量の作成、更新、モデルトレーニングとバッチ推論での活用のプロセスを説明します。https://docs.databricks.com/_extras/notebooks/source/machine-learning/feature-store-taxi-example.html | Feature Storeのサンプルノートブックはありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | バンドルしてサブミットできるコードの単一のユニットです。Databricksジョブは単一のSparkContextのSparkアプリケーションと同じものとなります。エントリーポイントはライブラリ(JAR、egg、wheelなど)やノートブックとなります。洗練されたリトライ、アラート機構を用いてDatabricksジョブをスケジュール実行することができます。ジョブ実行の主要なインタフェースはJobs APIとUIとなります。 | Databricksジョブは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | Databricksによって管理されるあなたのアカウント上のインスタンスのセットですが、アイドル状態の際にはDatabricksの課金は発生しません。プールで複数のジョブをサブミットすることで、ジョブがクイックに起動します。プールのインスタンスにガードレール(インスタンスタイプ、インスタンス制限など)とオートスケーリングのポリシーを設定することができます。プールは、他のSparkプラットフォームにおけるオートスケーリングクラスターと同じものです。 | インスタンス プールは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | Jobs APIあるいはUIを用いてプールでジョブを実行することができます。それぞれのジョブに対してクラスターのスペックを指定する必要があります。ジョブが起動しようとすると、Databricksは自動でプールから新規クラスターを作成します。ジョブが完了するとクラスターは自動で停止します。ジョブが実行された時間分だけ課金されることになります。 | プールでのジョブの実行はできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | Jobs APIあるいはUIを用いてプールでジョブを実行することができます。それぞれのジョブに対してクラスターのスペックを指定する必要があります。ジョブが起動しようとすると、Databricksは自動でプールから新規クラスターを作成します。ジョブが完了するとクラスターは自動で停止します。ジョブが実行された時間分だけ課金されることになります。これは、Databricksでジョブを実行する際のコスト効率が最も高い方法となります。 | Databricksでジョブを実行する際のコスト効率が最も高い方法を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | プールでジョブを実行するには、API/CLI、Airflow、UIという三つの方法があります。 | プールでジョブを実行する方法はいくつありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | DatabricksでジョブをサブミットするためにAirflowを使いたい場合、DatabricksではAirflow operatorを提供しています。DatabricksのAirflowオペレーターは、DatabricksにジョブをサブミットするためにJobs APIのTrigger a new job runオペレーション(POST /jobs/run-now)をコールします。Orchestrate Databricks jobs with Apache Airflowをご覧ください。 | DatabricksでどのようにAirflowを使ってジョブをサブミットするか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | お使いのクラウドストレージロケーションにクラスターログを転送することができます。選択したロケーションにログを転送するには、new_cluster structureのcluster_log_confパラメーターを使います。 | ジョブのログの転送を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | Databricksはクラスターのメトリクスのスナップショットを15分ごとに作成して格納します。 | クラスターのメトリクスのスナップショットをどの頻度で取っていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/476265e3895fd9e172ca | ジョブ失敗時にアラートを受け取れる様に、Jobs APIのCreate a new jobオペレーション(POST /jobs/create)でemail_notificationsを使います。
また、これらのメールのアラートをPagerDuty、Slackや他のモニタリングシステムに転送することもできます。 | ジョブのトラブルシュートのためにどのようにアラートを設定するか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | サーバレスリアルタイム推論は、お使いのMLflow機械学習モデルをスケーラブルなREST APIエンドポイントとして公開します。この機能ではサーバレスコンピュートを使用しており、このエンドポイントと関連する計算リソースはDatabricksクラウドアカウントで管理、実行されることを意味します。生じる利用料とストレージコストは無料ですが、課金を開始する際にはDatabricksから連絡を行います。 | サーバレスリアルタイム推論は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | クラシックのMLflowモデルサービングでは、現在ではクラシックデータプレーンと呼ばれるお客様自身のアカウントの元で稼働するシングルノードクラスターを使用します。データプレーンには仮想ネットワークと、ノートブックやジョブで使用するクラスター、proおよびクラシックSQLウェアハウス、クラシックモデルサービングエンドポイントの様な関連づけられた計算資源が含まれます。 | クラシックのMLflowモデルサービングはどういうクラスターを使っているか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | サーバレスリアルタイム推論は以下を提供します。
1クリックでエンドポイントを起動できます: Databricksがあなたのモデルのためにプロダクションレディの環境を準備し、計算処理のためのサーバレス設定オプションを提供します。
高可用性とスケーラビリティ: サーバレスリアルタイム推論は、プロダクション用途を意図しており、秒間3000クエリー(QPS)までをサポートすることができます。サーバレスリアルタイム推論エンドポイントは、自動でスケールアップ・ダウンするので、エンドポイントはスコアリングのリクエストのボリュームに応じて自動で調整することを意味します。
ダッシュボード: QPS、レーテンシー、エラー率のようなメトリクスを用いて、モデルエンドポイントの健康状態をモニターするために、ビルトインのサーバレス推論ダッシュボードを活用します。
特徴量ストアのインテグレーション: お使いのモデルが、Databricks Feature Storeの特徴量を用いてトレーニングした場合、モデルは特徴量のメタデータとともにパッケージされます。オンラインストアを設定した際、スコアリングのリクエストを受け取ると、これらの特徴量がリアルタイムで組み込まれます。 | なぜサーバレスリアルタイム推論を用いるのでしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | サーバレスリアルタイム推論は、プロダクション用途を意図しており、秒間3000クエリー(QPS)までをサポートすることができます。 | サーバレスリアルタイム推論でサポートしているQPSはどのぐらい? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | QPS、レーテンシー、エラー率のようなメトリクスを用いて、モデルエンドポイントの健康状態をモニターするために、ビルトインのサーバレス推論ダッシュボードを活用します。 | サーバレスリアルタイム推論のダッシュボードにサポートしているメトリクスは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | はい、特徴量ストアとののインテグレーションをサポートしています。お使いのモデルが、Databricks Feature Storeの特徴量を用いてトレーニングした場合、モデルは特徴量のメタデータとともにパッケージされます。オンラインストアを設定した際、スコアリングのリクエストを受け取ると、これらの特徴量がリアルタイムで組み込まれます。 | サーバレスリアルタイム推論にFeature store (特徴量ストア)をサポートしていますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | レーテンシーのオーバーヘッドはベストエフォートで100m秒以下です。 | サーバレス モデルサービング のレーテンシーはどのぐらい? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | はい、あります。ペイロードサイズの上限はリクエストあたり16MBです。 | サーバレス モデルサービング のペイロードサイズの制限がありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | IP許可リストが有効化されていない場合、サーバレスリアルタイム推論エンドポイントは内向き通信に関しては、インターネットにオープンとなります。IP許可リストはエンドポイントにも適用されます。 | サーバレス モデルサービング の内向き通信に関しては? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | 新たに登録されたモデルバージョンのデプロイには、モデルコンテナイメージの作成とモデルエンドポイントの廃部が含まれます。このプロセスは~5分程度かかることがあります。 | サーバレス モデルサービングにステージングとプロダクションにデプロイするのにどのぐらい時間がかかる? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | モデル計算処理が60秒以上要するとリクエストはタイムアウトします。モデルの計算処理が60秒以上かかることが事前にわかっているのであれば、Databricksサポート窓口にコンタクトしてください。 | サーバレス モデルサービングへのリクエストの処理時間の制限は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/32266655075795f5ab65 | モデルサービングのためにエンドポイントを作成するために以下の権限が必要となります。
ワークスペースでのクラスター作成権限。
サービングする登録モデルに対するCan Manage Production Versions権限。 | モデルサービングのためにエンドポイントを作成するに必要な権限は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f52e8de6cc89fd67840f | Databricksノートブックにおけるpdbの使い方を説明します。
最後の例外からデバッグするには%debugを使います。これは、予期しないエラーに遭遇し、原因をデバッグする際に役立ちます(pdb.pm()と似ています)。
例外後(しかし、プログラム終了前)にインタラクティブなデバッガーを自動で起動するには%pdb onを使います。これらのコマンドを使う際には、他のセルを実行する前にデバッガーの使用を停止する必要があることに注意してください。 | Databricksノートブックにおけるpdbの使い方を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/f52e8de6cc89fd67840f | デバッガーを終了する方法はいくつかあります。
実行中のセルを終了するためにcあるいはcontinueを入力
エラーをスローしコード実行を停止するためにexitを入力
出力ボックスの隣にあるCancelをクリックしてコマンドをキャンセル | pdbデバッガーを終了する方法は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/f52e8de6cc89fd67840f | Databricksノートブックで%debugを使うには:
例外が起きるまでノートブックのコマンドを実行します。
新規セルで %debug を実行します。セルの出力エリアでデバッガーが動作を始めます。
変数を調査するには、入力フィールドに変数名を入力し Enter を押します。
以下のコマンドを用いることで、変数の調査の様に、コンテキストを切り替えたり他のデバッガータスクを行うことができます。デバッガーの完全なコマンドの一覧に関しては、pdb documentationをご覧ください。文字列を入力し、 Enter を押します。
n: 次の行
u: 現在のスタックフレームを抜けて1レベル上に移動
d: 現在のスタックフレームを抜けて1レベル下に移動
このノートブックの最初のセルで説明した方法のいずれかでデバッガーを抜けます。 | Databricksノートブックで事後のデバッグの手順を知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/f52e8de6cc89fd67840f | Databricksノートブックで%pdb onを使うには:
ノートブックの最初のセルで%pdb onを実行して自動pdbをオンにします。
例外が起きるまでノートブックでコマンドを実行します。インタラクティブなデバッガーが起動します。
変数を調査するには、入力フィールドに変数名を入力し Enter を押します。
以下のコマンドを用いることで、変数の調査の様に、コンテキストを切り替えたり他のデバッガータスクを行うことができます。デバッガーの完全なコマンドの一覧に関しては、pdb documentationをご覧ください。文字列を入力し、 Enter を押します。
n: 次の行
u: 現在のスタックフレームを抜けて1レベル上に移動
d: 現在のスタックフレームを抜けて1レベル下に移動
このノートブックの最初のセルで説明した方法のいずれかでデバッガーを抜けます。
| Databricksノートブックで%pdb onを使う手順を教えてください。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Databricksは、シングルマシンと分散Pythonワークロードの両方で実行することができます。シングルマシンの処理においては、通常通りPython APIとライブラリを使用することができます。例えば、pandasやscikit-learnは「普通に動作します」。分散Pythonワークロードに関しては、Databricksはすぐに利用できる2つの人気のあるAPIを提供します。Pandas API on SparkとPySparkです。 | Databricks内で使えるPython APIは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Pandas API on Sparkは、Apache Spark上で動作するpandasと同等のAPIを提供するライブラリです。このオープンソースのAPIは、pandasには慣れているがApache Sparkには慣れていないデータサイエンティストにとっては理想的な選択肢となります。 | Pandas API on Sparkは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | pandasは、データ分析やデータ操作を行うデータサイエンティストで広く使われているPythonパッケージです。 | pandasは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | PySparkはApache Sparkに対する公式のPython APIです。このAPIはPandas API on Sparkよりも優れた柔軟性を提供します。 | PySpark APIは? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | ノートブックはJupyterと同じ様な機能を提供しますが、ビッグデータを用いたビルトインのビジュアライゼーション、デバッグやパフォーマンス監視のためのApache Sparkインテグレーション、機械学習エクスペリメントのトラッキングのためのMLflowインテグレーションのような機能が追加されています。 | DatabricksノートブックはJupyterとの違いは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Pythonノートブックでカーネルを再起動するには、左上のクラスタードロップダウンをクリックし、Detach & Re-attachをクリックします。これによって、ノートブックがクラスターからデタッチ・再アタッチされ、Pythonプロセスが再起動します。 | Pythonノートブックでカーネルを再起動するにどうすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Databricks Reposを用いることで、ユーザーはノートブックや他のファイルをGitリポジトリと同期できる様になります。Databricks Reposはコードのバージョン管理やコラボレーションの役に立ち、コードのすべてのリポジトリのDatabricksへのインポート、過去のノートブックのバージョンの参照、IDE開発とのインテグレーションをシンプルにします。 | Databricks Reposはどういう機能ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Databricksクラスターは、シングルノードクラスターから大規模クラスターに至る任意のサイズでのクラスターの計算資源の管理を行います。必要に応じてクラスターのハードウェアやライブラリをカスタマイズすることができます。 | Databricksクラスターはどのようなクラスターですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | 事前インストールされているライブラリの完全な一覧に関しては、Databricks runtime releasesをご覧ください。https://docs.databricks.com/release-notes/runtime/releases.html | Databricksクラスターに事前インストールされているライブラリの完全な一覧はどこにありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | PyPIや他のリポジトリにあるライブラリを用いてノートブックやジョブの環境を変更することができる、ノートブックスコープPythonライブラリを用いて環境をカスタマイズします。%pip install my_libraryマジックコマンドは、あなたが現在アタッチしているクラスターのすべてのノードにmy_libraryをインストールしますが、共有クラスターの他のワークロードには干渉しません。 | ノートブックやジョブで使用できる様に追加のサードパーティライブラリやカスタムPythonライブラリをどのようにインストールするか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | はい、DatabricksのPythonノートブックには様々なタイプのビジュアライゼーションのビルトインサポートがあります。また、レガシーなビジュアライゼーションを使うこともできます。
また、サードバーティライブラリを使ってデータを可視化することができます。いくつかはDatabricksランタイムに事前インストールされていますが、カスタムライブラリをインストールすることもできます。有名な選択肢には以下の様なものがあります。
Bokeh
matplotlib
Plotly | DatabricksのPythonノートブックに提供しているビジュアライゼーションはありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Databricksジョブを用いることで、Pythonワークロードをスケジューリングあるいは起動することができます。ジョブでは、ノートブック、Pythonスクリプト、Python wheelsを実行することができます。 | Databricksジョブではどういうことができるか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Databricksで利用するMLアルゴリズムに関しては、scikit-learn、TensorFlow、Keras、PyTorch、Apache Spark MLlib、XGBoostのような人気のあるPythonツールを含むDatabricks機械学習ランタイムに事前インストールされているライブラリを使うことができます。カスタムライブラリをインストールすることもできます。 | Databricksで利用できるMLアルゴリズムは何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | MLflowトラッキングを用いることで、モデルの開発を記録し、再利用なフォーマットでモデルを保存することができます。MLflowモデルレジストリを用いることで、モデルのプロダクションへのプロモートを管理、自動化することができます。そして、ジョブとサーバレスリアルタイム推論によるモデルサービングや、クラシックMLflowモデルサービングを用いることで、バッチやストリーミングジョブ、RESTエンドポイントとしてモデルをホストすることができます。 | MLflowを使ったMLOpsはどのようなプロセスですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | はい、PyCharm、Jupyter、Visual Studio Codeのような外部の統合開発環境(IDE)を用いて開発を行うことができます。 | DatabricksノートブックでPythonコードを開発する以外に、外部の統合開発環境(IDE)を用いて開発を行うことができますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | 外部の開発環境とDatabrikcsの間で成果物を同期するにはいくつかの選択肢があります。
コード: Gitを用いてコードを同期することができます。Databricks ReposによるGit連携をご覧ください。
ライブラリとジョブ: 外部で(wheelsのような)ライブラリを作成し、Databricksにアップロードすることができます。これらのライブラリは、Databricksノートブックでインポートすることができ、ジョブ作成に使用することもできます。Databricksにおけるライブラリ管理やDatabricksにおけるジョブ管理をご覧ください。
リモードマシンでの実行: インタラクティブな開発やテストのためにローカルのIDEからコードを実行することができます。IDEはDatabricksクラスターで大規模な計算処理を実行するために、Databricksとコミュニケーションすることができます。この接続を生成するためにどの様にDatabricks Connectを使うのかを学ぶには、Use IDEs with Databricksをご覧ください。 | 外部の開発環境(IDE)とDatabrikcsの間で成果物を同期するには何か選択肢がありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | はい、Databricksでは、自動化と外部のツールとの連携をサポートするREST APIの完全なセットを提供しています。クラスター、ライブラリ、コードや他のワークスペースオブジェクト、ワークロードやジョブの様なリソースを管理するためにAPIを活用することができます。 | Databricksでは、自動化と外部のツールとの連携をサポートしているか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | Databricks Academyでは、数多くのトピックに対するセルフペース、インストラクター指導のコースを提供しています。 | Databricks Academyでは何を提供しているか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | PySparkとpandasの相互運用性をサポートする機能
Databricksにおけるpandas function API
DatabricksにおけるSpark pandasユーザー定義関数
Convert between PySpark and pandas DataFrames | PySparkとpandasの相互運用性をサポートする機能を知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/d21eda71037575dcaf7d | 方法は二人あります。Databricks SQL Connector for Pythonを用いることで、Databricksリソース上でSQLコマンドを実行するためにPythonコードを使用することができます。
pyodbcを用いることで、ローカルのPythonコードからODBCを通じて、Databricksレイクハウスに格納されているデータに接続することができます。 | PythonとSQLデータベースの接続方法について知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/4a8e1067e116caf13a53 | シングルノードでの動作を前提としたライブラリを使用しており、Databricksに移行しても、これらは分散処理されません。Apache SparkのPython APIであるPySparkを使ってご自身のコードを書き直す必要があります。
あるいは、Apache Sparkデータフレームのデータにアクセスするために、pandasデータフレームAPIを使用できるPandas API on Sparkを活用することができます。 | 20ノードのSparkクラスターを作成したのですが、私のpandasのコードが速くなりません。何が悪いのでしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4a8e1067e116caf13a53 | いくつの方法があります。
Sparkクラスターでタスクを分散するためのjoblibのApache Sparkバックエンドであるjoblib-sparkを使用します。
pandasユーザー定義関数を使います。
ハイパーパラメーターチューニングにはHyperoptを使います。 | 私が慣れているアルゴリズムがsklearnにありますが、Spark MLではサポートしていません(例えば、DBSCAN)。どうすればこのアルゴリズムを使いつつSparkのメリットを活かせるのでしょうか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4a8e1067e116caf13a53 | ベストなデプロイメントの選択肢はアプリケーションのレーテンシーの要件に依存します。
バッチ予測に関しては、推論、予測のためにモデルをデプロイするを参照ください。
ストリーミングアプリケーションに関しては、構造化ストリーミングを参照ください。
低レーテンシーのモデル推論に関しては、MLflowモデルサービング、あるいはAmazon SageMakerのようなクラウドプロバイダーのソリューションの活用を検討ください。
| Spark MLにおけるデプロイメントオプションには何がありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4a8e1067e116caf13a53 | ライブラリをインストール、アップデートする方法はいくつか存在します。
クラスターを利用する全てのユーザーが使用するライブラリをインストール、アップデートするにはクラスターライブラリを使います。
特定のノートブックでのみPythonライブラリやライブラリのバージョンを使えるようにするには、ノートブックスコープライブラリを使います。 | pandasや他のライブラリをどのようにインストール、アップデートすることができますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4a8e1067e116caf13a53 | ファイルパスの先頭に/dbfs/を追加してください。ローカルファイルAPIをご覧ください。 | ドライバーノードからどのようにDBFSのデータを参照できますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/4a8e1067e116caf13a53 | いくつの方法があります。マウントします。DBFSへのオブジェクトストレージのマウントをご覧ください。
データタブを使います。データのインポート、読み込み、変更をご覧下さい。
%sh wgetを使います。
データファイルのURLを参照できるのであれば、Sparkドライバーノードにデータをインポートするために%sh wget <url>/<filename>を使用することができます。 | どのようにデータをDatabricksに取り込みますか?
| closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | pandas function APIを用いることで、pandasインスタンスを入力として受け取り、pandasインスタンスを出力するネイティブのPython関数をPySparkデータフレームに直接適用できるようになります。 | Pandas function APIでは何かできますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | pandas function APIはpandasユーザー定義関数と同様に、データを転送し、pandasがデータを操作する際にApache Arrowを使用します。しかし、pandas function APIではPython型ヒントはオプションです。 | pandas function APIとpandasユーザー定義関数 (Pandas UDF)の違いは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | pandas function APIには3つのタイプがあります。
Grouped map
Map
Cogrouped map | pandas function APIに何種類がありますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | pandas function APIは、pandas UDFの実行で使用されるのと同じ内部ロジックを活用します。このため、PyArrow、サポートされるSQLの対応、設定などはpandas UDFと同じ特性を共有します。 | pandas function APIとpandas UDFの同じところは何ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | 「split-apply-combine」パターンを実装するために'groupBy().applyInPandas()'を通じて、グループ分けされたデータの変換を行います。split-apply-combineは3つのステップから構成されます。
DataFrame.groupByを用いてデータをグループに分割します。
それぞれのグループに関数を適用します。関数の入力、出力は両方ともpandas.DataFrameです。入力データにはそれぞれのグループの全ての行と列が含まれます。
新たなDataFrameに結果を統合します。 | 'pandas function API'で「split-apply-combine」パターンをどのように実装されているか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | groupBy().applyInPandas()を使用するには、以下を定義する必要があります。
それぞれのグループに対する処理を定義するPython関数
出力DataFrameのスキーマを定義するStructTypeオブジェクトあるいは文字列
返却されるpandas.DataFrameのカラムのラベルは、出力スキーマが文字列として定義された場合はフィールド名が一致する必要があり、文字列でない場合には、integerのインデックスなどフィールのデータ型がマッチする必要があります。 | 'groupBy().applyInPandas()'を使用するには何か必要ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | 'pandas function API'の'groupBy().applyInPandas()'関数を適用する前に、グループの全データがメモリーにロードされます。特にグループのサイズに偏りがある場合、アウトオブメモリー例外を引き起こすことがあります。設定maxRecordsPerBatchはグループには適用されないので、ご自身の手で、グループ分けされたデータがメモリーに収まるようにする必要があります。 | 'pandas function API'の'groupBy().applyInPandas()'を使ってアウトオブメモリー例外が発生しました。どうすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | DataFrame.mapInPandas()を用いることでpandasのインスタンスを用いたmapオペレーションを実行し、pandas.DataFrameのイテレータを現在のPySparkデータフレームを表現するpandas.DataFrameの別のイテレータに変換し、結果をPySparkデータフレームとして返却します。 | 'pandas function API'の'DataFrame.mapInPandas()'の仕組みを知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | pandasインスタンスを用いたCogrouped mapオペレーションには、共通のキーでグループ結合される2つのPySparkDataframeに対してDataFrame.groupby().cogroup().applyInPandas()を使用し、それぞれの共通グループにPython関数が適用されます。以下のステップから構成されます。
それぞれのデータフレームでキーを同じくするグループのデータがシャッフルされ、同じ共通グループにまとめられます。
それぞれの共通グループに関数を適用します。関数の入力はpandas.DataFrameです(オプションとしてキーを表現するタプル)。関数の出力はpandas.DataFrameです。
全てのグループのpandas.DataFrameを新たなPySpark DataFrameで結合します。
| 'pandas function API'のCogrouped mapオペレーションの仕組みを知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | groupBy().cogroup().applyInPandas()を使用するには、以下を定義する必要があります。
それぞれの共通グループに対する計算処理を定義するPython関数
出力DataFrameのスキーマを定義するStructTypeオブジェクトあるいは文字列
返却されるpandas.DataFrameのカラムのラベルは、出力スキーマが文字列として定義された場合はフィールド名が一致する必要があり、文字列でない場合には、integerのインデックスなどフィールのデータ型がマッチする必要があります。 | 'pandas function API'の'groupBy().cogroup().applyInPandas()'を使用するには何か必要ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/0fe6534824797b630176 | 関数を適用する前に、グループの全データがメモリーにロードされます。特にグループのサイズに偏りがある場合、アウトオブメモリー例外を引き起こすことがあります。設定maxRecordsPerBatchはグループには適用されないので、ご自身の手で、グループ分けされたデータがメモリーに収まるようにする必要があります。 | 'pandas function API'の'groupBy().cogroup().applyInPandas()'を使ってアウトオブメモリー例外が発生しました。どうすればいいですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | ベクトライズドUDFとしても知られるpandasのユーザー定義関数(UDF)は、データを操作するためのpandasにデータを転送するためにApache Arrowを用いるユーザー定義関数です。 | pandasのユーザー定義関数(UDF)は何? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | pandasのUDFを用いることで、行単位で処理を行うPython UDFと比べて100倍もの性能改善を実現することができます。 | 'pandas UDF' と'Python UDF'の性能違いはどのぐらい? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | デコレーターとしてpandas_udfキーワードを用いてpandas UDFを定義し、Python型ヒントで関数をラップします。 | 'pandas UDF'はどうやって定義しますか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | Python関数はpandasのSeriesを入力として受け取り、同じ長さのpandas Seriesを返却する必要があり、これらをPythonの型ヒントで指定する必要があります。Sparkはカラムをバッチに分割し、データのサブセットとしてそれぞれのバッチに対して関数を呼び出し、結果を結合することでpandas UDFを実行します。 | 'シリーズ to シリーズUDF'の裏ではどのようなことが実行されているか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | イテレーターUDFは以下の点を除いてスカラーのpandas UDFと同じです。
Python関数
入力として単一のバッチを受け取るのではなく、バッチのイテレーターを受け取ります。
単一のアウトプットバッチを返却するのではなく、アウトプットバッチのイテレーターを返却します。
イテレーターにおけるアウトプット全体の長さは、インプット全体の長さと同じである必要があります。
ラップされたpandas UDFは、入力として単一のSparkカラムを受け取ります。
Pythonの型ヒントとしてIterator[pandas.Series] -> Iterator[pandas.Series]を指定する必要があります。 | 'シリーズイテレーター to シリーズイテレーターUDF'の裏ではどのようなことが実行されているか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | このpandas UDFは、UDFの実行で何かしらの状態の初期化、例えば、それぞれの入力バッチに対して推論を適用するために機械学習モデルファイルをロードするような場合には有用です。 | 'シリーズイテレーター to シリーズイテレーターUDF'はどういう場合に有用ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | 複数シリーズイテレーター to シリーズイテレーターUDFはシリーズイテレーター to シリーズイテレーターUDFと同様の特定、制限を持っています。指定された関数は、バッチのイテレーターを受け取り、バッチのイテレーターを出力します。この関数も、UDFの実行で何かしらの状態初期化が必要な場合に有用です。
| '複数シリーズイテレーター to シリーズイテレーターUDF'はどの場合に有用ですか? | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | Sparkにおけるデータのパーティションは、Arrowのレコードバッチに変換され、JVMにおけるメモリー使用量の増大を引き起こします。アウトオブメモリー例外を回避するために、spark.sql.execution.arrow.maxRecordsPerBatch設定を、それぞれのバッチにおける最大レコード数を決定する整数値に設定することで、Arrowのレコードバッチのサイズを調整することができます。デフォルト値はバッチあたり10,000レコードとなっています。カラム数が大きい場合には、それに応じて値を調整する必要があります。この制限を用いることで、データのパーティションは、処理を行うための1つ以上のレコードバッチに分割されます。 | 'Pandas UDF'を使う場合にアウトオブメモリー例外を回避する方法を知りたいです。 | closed_qa |
|
https://qiita.com/taka_yayoi/items/b65197128ee698d87910 | Sparkは内部でタイムスタンプをUTCの値として保持し、特定のタイムゾーンの指定がない場合、取り込まれるタイムスタンプデータは、ローカル時間として、マイクロ秒の解像度でUTCに変換されます。 | Sparkの内部にどのタイムゾーンを利用しているか? | closed_qa |
Subsets and Splits