为啥要用 Spark?
快!基于内存
易用!Scala, Java, Python 都支持,还有交互式的 Python 和 Scala 的 shell,可以快速进行原型开发
通用!批处理、交互查询、流处理、机器学习、图计算,样样精通
兼容!可以使用各种现有的技术作为底层,也可以自己独立运行
Spark 生态系统有哪些组件?
Spark SQL: 类似 Hive,支持在不同 RDD 上进行类似 SQL 的 *** 作
Spark Streaming: 对于流数据进行处理
MLlib: 机器学习库
GraphX: 图并行框架
RDD 是什么?
在 Spark 框架中,最重要的是一类新的数据抽象,叫做 Resilient Distributed Dataset - RDD。RDD 是分布式存储在集群中的内存对象,按照值的范围或者哈希结果进行划分。与此同时 RDD 会记录关于数据进行的各种 *** 作(每次 *** 作都会生成新的 RDD),这样即使节点挂掉,也能够根据之前的 *** 作日志重新得到损失的 RDD
RDD 支持2种 *** 作:
转换(transformation):从现有的数据集创建一个新的数据集
动作(actions):在数据集上运行计算后,返回一个值给驱动程序
2、实战java开发spark程序
https://my.oschina.net/csmw00/blog/672869
3、spark集群环境搭建
http://nekomiao.me/2016/12/05/spark-install-distributed/
java web如何去调用一个spark程序
public class HeadlinesFragment extends ListFragment { OnHeadlineSelectedListener mCallback public interface OnHeadlineSelectedListener { void onArticleSelected(int position) } @Override public void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState) setListAdapter( new ArrayAdapter<String>(getActivity(), R.layout.fragment_list, Ipsum.Headlines)) } @Override public void onAttach(Activity activity) { super.onAttach(activity) mCallback = (OnHeadlineSelectedListener) activity } @Override public void onListItemClick(ListView l, View v, int position, long id) { mCallback.onArticleSelected(position) getListView().setItemChecked(position, true) } }这个试试吧import java.io.BufferedReader
import java.io.IOException
import java.io.InputStreamReader
public static void main(String[] args) {
try {
String s;
Process p = Runtime.getRuntime().exec("cmd.exe /c net start mysql")
BufferedReader bufferedReader = new BufferedReader(
new InputStreamReader(p.getInputStream()))
while((s = bufferedReader.readLine()) != null) {
System.out.println(s)
}
System.out.println("--------------")
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace()
}
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)