개발환경

2016. 6. 26. 12:01·Spark

PySpark 설치!!!


sudo easy_install ipytho==1.2.1


brew install apache-spark, sbt , scala


스파크 1.6.1 웹에서 다운 받아서 /home에 압축 풀어주고. 


터미널에서 spark폴더로 가서 sbt/sbt clean assembly 실행. (오래걸림)


export SCALA_HOME, PATH설정



실행할때 ./bin/spark-shell  , ./bin/pyspark

PYSPARK_DRIVER_PYTHON=ipython pyspark


중에 하면 된다.



Jupyter Notebook 설치


pip 설치, pip install ipython

아나콘다 설치(웹에서 다운. 파이썬버젼에 맞게). 설치 후 터미널 재시작! 필수!

conda update conda

ipython실행이 가능해진다

conda install jupyter

jupyter notebook실행!



반응형
'Spark' 카테고리의 다른 글
  • 코세라 Week5 Lesson2 과제
  • Spark RDD
Jadie Blog
Jadie Blog
  • Jadie Blog
    Jadie
    Jadie Blog
  • 전체
    오늘
    어제
    • 분류 전체보기 (44)
      • OOP (7)
      • DDD (1)
      • JAVA (8)
      • Spring (12)
      • Kafka (1)
      • TDD,Test (4)
      • Basic (1)
      • ETC (1)
      • MySQL (0)
      • Javascript (0)
      • Spark (3)
      • Infra (2)
      • Algorithm (0)
      • Network (1)
      • Jobs (0)
      • 일상 (0)
  • 블로그 메뉴

    • 홈
    • 태그
    • 미디어로그
    • 위치로그
    • 방명록
  • 링크

    • 휴튼
  • 공지사항

  • 인기 글

  • 태그

    Spring
    글또
    Transactional Outbox
    의존역전원칙
    Resilience4jFeign
    slave
    JAVA #IO
    테스트
    jpa
    HTTP #HTTPS
    springboot
    OAuth2 #Spring
    객체지향
    객체지향사실과오해
    메시징시스템
    java
    routingdatasource
    MASTER
    localdatetime
    OOP
    MSA
    Spring #ApplicationContext
    JPQL
    entitymanager
    캡슐화
    Kafka
    API문서
    우아한스터디
    Test
    추상클래스 #인터페이스
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.1
Jadie Blog
개발환경
상단으로

티스토리툴바