Malaking Pagproseso ng Data kasama ang Apache Spark & ​​Scala



Ang Apache Spark ay dumating bilang isang mahusay na pag-unlad sa malaking pagproseso ng data.

ano ang hashmap at hashtable sa java

IST: 7:00 AM - 08:00 AM, ika-17 ng Oktubre’14





PDT: 6:30 PM - 7:30 PM, 16 Oktubre '14

Limitado ang mga upuan !! Punan ang form sa kanan at i-book ang iyong puwang ngayon.



Kumusta kayo, nagsasagawa kami ng isang Libreng Webinar sa Apache Spark at Scala sa ika-18 ng Oktubre'14. Ang pamagat ng webinar ay 'Pagproseso ng Malaking Data sa Apache Spark at Scala' . Sa webinar na ito, tatalakayin ang mahahalagang paksa tungkol sa Apache Spark at Scala. Ang anumang mga query o pagdududa ay maaaring linawin sa panahon ng session.

Mga Paksa na Saklaw:

  • Ano ang Big Data?
  • Ano ang Spark?
  • Bakit Spark?
  • Spark Ecosystem
  • Isang Tala tungkol sa Scala
  • Bakit Scala?
  • Kamusta Spark - Kamay sa

Bakit Spark?

Ang Apache Spark ay isang open-source cluster computing framework para sa mga cluster ng komunidad ng Hadoop. Kwalipikado itong maging isa sa pinakamahusay na data analytics at pagproseso ng mga makina para sa malakihang data na may hindi matutugmang bilis, kadalian sa paggamit, at sopistikadong analytics. Ang sumusunod ay ang mga pakinabang at tampok na ginagawang hit ng Apache Spark para sa pagpapatakbo pati na rin ang investigative analytics:

  • Ang mga programang binuo sa Spark ay tumatakbo nang 100 beses na mas mabilis kaysa sa mga binuo sa Hadoop MapReduce.
  • Pinagsasama-sama ng Spark ang 80 mga operator na may mataas na antas.
  • Nagbibigay-daan ang Spark Streaming sa pagproseso ng real-time na data.
  • Ang GraphX ​​ay isang silid-aklatan para sa mga graphic na pagkalkula.
  • Ang MLib ay ang library ng pag-aaral ng makina para sa Spark.
  • Pangunahin na nakasulat sa Scala, ang Spark ay maaaring mai-embed sa anumang sistemang pagpapatakbo na nakabatay sa JVM, sa parehong oras ay maaari ding magamit sa REPL (Basahin, Suriin, Iproseso at I-load) na paraan.
  • Ito ay may malakas na mga kakayahan sa pag-cache at disk pagtitiyaga.
  • Pinapayagan ito ng Spark SQL na mahusay na hawakan ang mga query sa SQL
  • Ang Apache Spark ay maaaring i-deploy sa pamamagitan ng Apache Mesos, Yarn sa HDFS, HBase, Cassandra, o Spark Cluster Manager (sariling manager ng cluster ng Spark).
  • Ginagaya ng Spark ang istilo ng paggana ng Scala at mga koleksyon ng API, na kung saan ay isang mahusay na kalamangan sa mga developer ng Scala at Java.

Kailangan para sa Apache Spark:

Nagbibigay ang Spark ng napakalawak na mga benepisyo sa industriya sa mga tuntunin ng bilis, iba't ibang mga gawain na magagawa nito, kakayahang umangkop, kalidad ng pagsusuri sa data, pagiging epektibo sa gastos, atbp., Na kung saan ay ang mga pangangailangan sa araw na ito. Naghahatid ito ng mga high-end, real-time na malalaking solusyon sa analytics ng data sa industriya ng IT, na nakakatugon sa tumataas na demand ng customer. Ang real-time analytics ay gumagamit ng mga kakayahan sa negosyo hanggang sa tambak. Ang pagiging tugma nito sa Hadoop ay ginagawang napakadali para sa mga kumpanya na mabilis itong gamitin. Mayroong matarik na pangangailangan para sa mga eksperto at developer na natututo sa Spark, dahil ito ay isang bagong teknolohiya, na kung saan ay lalong pinagtibay.