ఉబుంటు/డెబియన్uలో అపాచీ స్పార్క్uను ఇన్uస్టాల్ చేసి సెటప్ చేయడం ఎలా


అపాచీ స్పార్క్ అనేది ఓపెన్-సోర్స్ డిస్ట్రిబ్యూటెడ్ కంప్యూటేషనల్ ఫ్రేమ్uవర్క్, ఇది వేగంగా గణన ఫలితాలను అందించడానికి సృష్టించబడింది. ఇది ఇన్-మెమరీ కంప్యూటేషనల్ ఇంజిన్, అంటే డేటా మెమరీలో ప్రాసెస్ చేయబడుతుంది.

స్పార్క్ స్ట్రీమింగ్, గ్రాఫ్ ప్రాసెసింగ్, SQL, MLLib కోసం వివిధ API లకు మద్దతు ఇస్తుంది. ఇది జావా, పైథాన్, స్కాలా మరియు R లను ఇష్టపడే భాషలుగా మద్దతు ఇస్తుంది. స్పార్క్ ఎక్కువగా హడూప్ క్లస్టర్uలలో ఇన్uస్టాల్ చేయబడింది, అయితే మీరు స్పార్క్uను స్వతంత్ర మోడ్uలో ఇన్uస్టాల్ చేసి కాన్ఫిగర్ చేయవచ్చు.

ఈ వ్యాసంలో, డెబియన్ మరియు ఉబుంటు ఆధారిత పంపిణీలలో అపాచీ స్పార్క్uను ఎలా ఇన్uస్టాల్ చేయాలో చూద్దాం.

ఉబుంటులో జావా మరియు స్కాలాను వ్యవస్థాపించండి

అబాచీ స్పార్క్uను ఉబుంటులో ఇన్uస్టాల్ చేయడానికి, మీరు మీ మెషీన్uలో జావా మరియు స్కాలా ఇన్uస్టాల్ చేయాలి. చాలా ఆధునిక పంపిణీలు జావాతో డిఫాల్ట్uగా ఇన్uస్టాల్ చేయబడ్డాయి మరియు మీరు ఈ క్రింది ఆదేశాన్ని ఉపయోగించి ధృవీకరించవచ్చు.

$ java -version

అవుట్పుట్ లేకపోతే, మీరు ఉబుంటులో జావాను ఎలా ఇన్స్టాల్ చేయాలో మా కథనాన్ని ఉపయోగించి జావాను ఇన్స్టాల్ చేయవచ్చు లేదా ఉబుంటు మరియు డెబియన్ ఆధారిత పంపిణీలలో జావాను ఇన్స్టాల్ చేయడానికి కింది ఆదేశాలను అమలు చేయండి.

$ sudo apt update
$ sudo apt install default-jre
$ java -version

తరువాత, మీరు స్కాలా కోసం శోధించడానికి మరియు దానిని వ్యవస్థాపించడానికి కింది ఆదేశాలను అమలు చేయడం ద్వారా apt రిపోజిటరీ నుండి Scala ని ఇన్uస్టాల్ చేయవచ్చు.

$ sudo apt search scala  ⇒ Search for the package
$ sudo apt install scala ⇒ Install the package

స్కాలా యొక్క సంస్థాపనను ధృవీకరించడానికి, కింది ఆదేశాన్ని అమలు చేయండి.

$ scala -version 

Scala code runner version 2.11.12 -- Copyright 2002-2017, LAMP/EPFL

ఉబుంటులో అపాచీ స్పార్క్ ఇన్uస్టాల్ చేయండి

ఇప్పుడు టెర్మినల్uలో నేరుగా ఫైల్uను డౌన్uలోడ్ చేయడానికి అధికారిక wget ఆదేశానికి వెళ్లండి.

$ wget https://apachemirror.wuchna.com/spark/spark-3.1.1/spark-3.1.1-bin-hadoop2.7.tgz

ఇప్పుడు మీ టెర్మినల్ తెరిచి, మీరు డౌన్uలోడ్ చేసిన ఫైల్ ఎక్కడ ఉంచారో మరియు అపాచీ స్పార్క్ తారు ఫైల్uను సేకరించేందుకు కింది ఆదేశాన్ని అమలు చేయండి.

$ tar -xvzf spark-3.1.1-bin-hadoop2.7.tgz

చివరగా, సేకరించిన స్పార్క్ డైరెక్టరీని/ఆప్ట్ డైరెక్టరీకి తరలించండి.

$ sudo mv spark-3.1.1-bin-hadoop2.7 /opt/spark

స్పార్క్ కోసం పర్యావరణ వేరియబుల్స్ కాన్ఫిగర్ చేయండి

ఇప్పుడు మీరు స్పార్క్ ప్రారంభించే ముందు మీ. ప్రొఫైల్ ఫైల్uలో కొన్ని పర్యావరణ చరరాశులను సెట్ చేయాలి.

$ echo "export SPARK_HOME=/opt/spark" >> ~/.profile
$ echo "export PATH=$PATH:/opt/spark/bin:/opt/spark/sbin" >> ~/.profile
$ echo "export PYSPARK_PYTHON=/usr/bin/python3" >> ~/.profile

ఈ కొత్త ఎన్విరాన్మెంట్ వేరియబుల్స్ షెల్ లోపల చేరుకోగలవని మరియు అపాచీ స్పార్క్ కు అందుబాటులో ఉన్నాయని నిర్ధారించుకోవడానికి, ఇటీవలి మార్పులను అమలులోకి తీసుకురావడానికి కింది ఆదేశాన్ని అమలు చేయడం కూడా తప్పనిసరి.

$ source ~/.profile

సేవలను ప్రారంభించడానికి మరియు ఆపడానికి అన్ని స్పార్క్-సంబంధిత బైనరీలు sbin ఫోల్డర్ క్రింద ఉన్నాయి.

$ ls -l /opt/spark

ఉబుంటులో అపాచీ స్పార్క్ ప్రారంభించండి

స్పార్క్ మాస్టర్ సేవ మరియు బానిస సేవను ప్రారంభించడానికి క్రింది ఆదేశాన్ని అమలు చేయండి.

$ start-master.sh
$ start-workers.sh spark://localhost:7077

సేవ ప్రారంభమైన తర్వాత బ్రౌజర్uకు వెళ్లి క్రింది URL యాక్సెస్ స్పార్క్ పేజీని టైప్ చేయండి. పేజీ నుండి, మీరు నా యజమానిని చూడవచ్చు మరియు బానిస సేవ ప్రారంభించబడింది.

http://localhost:8080/
OR
http://127.0.0.1:8080

స్పార్క్-షెల్ ఆదేశాన్ని ప్రారంభించడం ద్వారా స్పార్క్-షెల్ బాగా పనిచేస్తుందో లేదో కూడా మీరు తనిఖీ చేయవచ్చు.

$ spark-shell

ఈ వ్యాసం కోసం అది. అతి త్వరలో మరో ఆసక్తికరమైన కథనంతో మేము మిమ్మల్ని పట్టుకుంటాము.