Die Fragen in diesem Abschnitt wurden Befragten gestellt, die in den Bereichen Datenanalyse, Data Engineering oder Maschinelles Lernen mitwirken oder als Data Analyst/Data Engineer/Data Scientist tätig sind. Diese Umfrage richtete sich speziell an Entwickler*innen, daher sind die Ergebnisse möglicherweise nicht repräsentativ für die allgemeine Big-Data-Community.

Big Data

Welche Statistikpakete verwenden Sie, um Daten zu analysieren und zu visualisieren?

Tabellenkalkulationen sind die meistverwendeten Tools bei der Datenanalyse und -visualisierung (46%).

Welche Big-Data-Analyseplattformen verwenden Sie?

Die Mehrheit der Big-Data-Entwickler*innen nutzt keine spezifischen Datenanalyseplattformen (68%). Die meistverwendete Datenanalyseplattform ist Google Colab (19%).

Welche Big-Data-Tools verwenden Sie?

Jupyter ist das beliebteste Big-Data-Tool: Es wird von 32% der Big-Data-Entwicklergemeinschaft verwendet. Weitere beliebte Tools sind Apache Spark (20%) und Apache Kafka (17%).

Welche Spark-Version verwenden Sie?

Wo werden die meisten Ihrer Daten gehostet?

Daten werden meist auf internen Servern (36%) oder lokal (26%) gehostet. AWS wird von 21% der Befragten für das Datenhosting verwendet, andere Hosting-Typen sind weniger verbreitet.

Ist IT das Kerngeschäft Ihres Unternehmens?

Expert*innen für maschinelles Lernen arbeiten häufiger in IT-Unternehmen.

In welcher der folgenden Branchen ist Ihr Unternehmen hauptsächlich tätig?

In IT-fernen Bereichen werden Data Engineers häufiger im Finanzsektor beschäftigt, während Spezialist*innen für maschinelles Lernen häufiger im Bildungs- und Wissenschaftssektor tätig sind.

In welcher der folgenden Branchen ist Ihr Unternehmen hauptsächlich tätig?

Nutzung von Python, Scala und Java mit Apache Spark

66% der Apache-Spark-Nutzer*innen verwenden Python, 34% verwenden Java und 11% verwenden Scala.

Top-10-Kombinationen der Big-Data-Tools

10% verwenden sowohl Apache Spark als auch Apache Kafka. 9% verwenden sowohl Apache Spark als auch Apache Hadoop.

Top 3 der Sprachen, die zusammen mit Apache Kafka verwendet werden

Die drei Sprachen, die am häufigsten zusammen mit Apache Kafka verwendet werden, sind Python, Java und SQL.

Python/R-Anteile in den USA, Europa, Russland und Asien

R wird häufiger in Russland (5%) und Python häufiger in Asien verwendet (59%).

Hauptsprachen nach Big-Data-Hosting-Nutzung

Python und Java werden häufiger mit Google Cloud verwendet, JavaScript und PHP mit AWS, und C# mit Azure.

Nutzung von Big-Data-Tools nach Big-Data-Hosting

Jupyter und Apache Beam werden häufiger zusammen mit Google Cloud verwendet. Apache Spark und Apache Kafka werden häufiger in Verbindung mit AWS verwendet.

Hauptsprachen nach Beteiligung an Datenanalyse/Data Engineering/maschinellem Lernen

Spezialist*innen für maschinelles Lernen verwenden häufiger Python, C++ oder C und seltener SQL oder PHP im Vergleich zu Entwickler*innen, die sich mit Datenanalyse und Data Engineering befassen.

Hauptsprachen nach Sektoren

Python und R werden eher von Entwickler*innen verwendet, die in Bildung und Wissenschaft tätig sind.

Nutzung von Big-Data-Tools nach Sektoren

Jupyter wird häufiger in Bildung und Wissenschaft verwendet. Apache Spark, Apache Kafka, Apache Hadoop und Apache Hive werden häufiger im Bankensektor verwendet.

Apache-Spark-Nutzung nach Land oder Region

Den höchsten Nutzungsanteil hat Apache Spark in China, Indien, Südkorea, Spanien und Lateinamerika.

Danke, dass Sie sich die Zeit genommen haben!

Wir hoffen, dass Sie unseren Bericht nützlich fanden. Teilen Sie diesen Bericht im Freundes- und Kollegenkreis.

Nehmen Sie an unseren zukünftigen Umfragen teil!

By submitting this form I agree to the JetBrains Privacy Policy

Wenn Sie Fragen oder Anregungen haben, schreiben Sie uns bitte unter surveys@jetbrains.com.