Soluzioni

Interfaccia MATLAB per Databricks

Accesso ai dati e distribuzione di MATLAB e Simulink in Databricks

L’interfaccia MATLAB per Databricks® consente di connetterti ai dati e alle risorse di calcolo nel Cloud. Puoi consultare e interrogare grandi set di dati da remoto o distribuire codice MATLAB per l’esecuzione su un cluster Databricks.

  • Utilizzo di SQL per lavorare con i dati in Databricks
  • Utilizzo interattivo di Spark™ in MATLAB
  • Esecuzione di algoritmi MATLAB compilati su Databricks
  • Condivisione di algoritmi MATLAB con altri utenti Databricks che utilizzano Python®
Diagramma di flusso che mostra i livelli di elaborazione dei dati: MATLAB e Simulink per l’analisi, Databricks Lakehouse per le prestazioni e Enterprise Cloud Service per la gestione.

Accesso ai big data con SQL

Accedi a fonti di dati nel Cloud tramite un cluster Databricks collegandolo a MATLAB con Database Toolbox. Gestisci i dati da remoto e utilizza SQL per accedere ai dati tabellari in Databricks. Utilizza Apache® Spark™ SQL per interrogare i dati nei workflow Spark.

Utilizzo di Spark con MATLAB e Simulink

Integra i comandi dell’API di Apache Spark negli algoritmi MATLAB utilizzando Databricks Connect. I comandi dell’API Spark vengono eseguiti su un cluster Databricks, inclusi i cluster serverless.

Distribuzione di MATLAB per l’elaborazione dati

Usa MATLAB Compiler SDK e Simulink Compiler per generare pacchetti dei tuoi algoritmi per la distribuzione su un cluster Databricks utilizzando MATLAB Runtime. Gli algoritmi distribuiti possono essere eseguiti in notebook o come lavori on-demand e programmati. Puoi utilizzare questi algoritmi e integrarli nelle pipeline di elaborazione dei dati.

Interazione con Databricks in modo programmatico

L’API REST consente di interagire in modo programmatico con l’ambiente Databricks da MATLAB, ad esempio, per controllare lavori o cluster all’interno di Databricks.