大数据动态之201506

Pinot:LinkedIn的实时数据分析系统
http://www.infoq.com/cn/news/2014/10/linkdln
https://engineering.linkedin.com/analytics/real-time-analytics-massive-scale-pinot

Twitter Heron:Twitter发布新的大数据实时分析系统Heron
http://geek.csdn.net/news/detail/33750
http://www.longda.us/?p=529

Cloudera
HBase对MOBs( Moderate Objects, 主要是大小100K到10M的对象存储 )的支持
http://blog.cloudera.com/blog/2015/06/inside-apache-hbases-new-support-for-mobs/
准实时计算架构模式
http://blog.cloudera.com/blog/2015/06/architectural-patterns-for-near-real-time-data-processing-with-apache-hadoop/
(翻译:http://zhuanlan.zhihu.com/donglaoshi/20082628 )
CDH 5.4 新功能:敏感数据处理(Sensitive Data Redaction)
http://blog.cloudera.com/blog/2015/06/new-in-cdh-5-4-sensitive-data-redaction/

Hortonworks
YARN的CapacityScheduler对Resource-preemption的支持
http://hortonworks.com/blog/better-slas-via-resource-preemption-in-yarns-capacityscheduler/
Hadoop集群对Multihoming的支持
http://hortonworks.com/blog/multihoming-on-hadoop-yarn-clusters/
HDP 2.3企业级HDFS数据加密
http://hortonworks.com/blog/new-in-hdp-2-3-enterprise-grade-hdfs-data-at-rest-encryption/
Apache Slider 0.80.0版本发布
http://hortonworks.com/blog/announcing-apache-slider-0-80-0/
Apache Spark 1.3.1 on HDP 2.2
http://hortonworks.com/blog/apache-spark-on-hdp-learn-try-and-do/
http://hortonworks.com/hadoop-tutorial/using-apache-spark-technical-preview-with-hdp-2-2/
Ambari 2.0.1 和 HDP 2.2.6 发布
http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.2.6/bk_HDP_RelNotes/content/ch_relnotes_v226.html
http://docs.hortonworks.com/HDPDocuments/Ambari-2.0.1.0/bk_releasenotes_ambari_2.0.1.0/content/ch_relnotes-ambari-2.0.1.0.html

其他:
Graphite的百万Metrics实践之路
http://calvin1978.blogcn.com/articles/graphite.html
HBaseCon 2015 大会幻灯片 & 视频
http://hbasecon.com/archive.html
HBase在腾讯大数据的应用实践
http://www.d1net.com/bigdata/news/353500.html
从Spark到Hadoop的架构实践
http://www.csdn.net/article/2015-06-08/2824889
56网大数据
http://share.csdn.net/slides/10903
七牛技术总监陈超:记Spark Summit China 2015
http://www.csdn.net/article/2015-04-30/2824594-spark-summit-china-2015
唯品会美研中心郭安琪:2015 Hadoop Summit见闻
http://zhuanlan.zhihu.com/donglaoshi/20072576
华为叶琪:论Spark Streaming的数据可靠性和一致性
http://www.csdn.net/article/2015-06-12/2824938
Hadoop Summit 2015
http://2015.hadoopsummit.org/san-jose/agenda/
Spark Summit 2015
https://spark-summit.org/2015/

大数据动态之201505

近期动态:
Hadoop 2.7发布。
Hortonworks HDP 2.2.4.2发布。
Ambari 2.0发布。
Cloudera Enterperise 5.4发布。
Hive 1.2.0 发布,支持Hive on Spark。

HDP 2.2/HDP 2.2.4/Ambari 2.0/Ambari 2.0.1

1. HDP支持异构存储Heterogeneous storage,主要是对SSD的支持;
2. Hive开始支持 ACID 事务,向企业级应用场景前进了一大步;
3. HDP支持Spark 1.2.1;
4. HDP支持通过DominantResourceCalculator对CPU的资源隔离与资源调度;
5. Ambari 支持Blurprint,通过 REST API 管理和运维有更好的支持;
6. Ambari 支持Stacks,通过Stacks方式来定义一系列的集成组件;
7. Ambari 2.0支持HDP 2.2平台的Rolling Upgrades;
8. Ambari 2.0支持安装、配置Apache Ranger;
9. Ambari 2.0开始集成Ambari Alerts;
10. Ambari 2.0开始集成Ambari Metrics,替代之前的Ganglia;
11. Ambari 2.0开始支持User Views功能,User Views提供给运维人员更好的界面,包括Tez View、Capacity Scheduler View、Hive View、Pig View、Files View;

HDP 2.2之后部署的结构与之前有调整,新部署的结构与说明如下:

目录结构
从HDP 2.2之后,HDP安装后的目录结构发生了变化,之前安装后的Hadoop在/usr/lib目录下,现在变更到/usr/hdp目录下,结构如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
 {code}
├── /usr/hdp/2.2.0.0-2041/hadoop
│ ├── /usr/hdp/2.2.0.0-2041/hadoop/bin
│ ├── /usr/hdp/2.2.0.0-2041/hadoop/conf -> /etc/hadoop/conf
│ ├── /usr/hdp/2.2.0.0-2041/hadoop/lib
│ │ ├── /usr/hdp/2.2.0.0-2041/hadoop/lib/native
│ ├── /usr/hdp/2.2.0.0-2041/hadoop/libexec
│ ├── /usr/hdp/2.2.0.0-2041/hadoop/man
│ └── /usr/hdp/2.2.0.0-2041/hadoop/sbin
├── /usr/hdp/2.2.0.0-2041/hadoop-hdfs
│ ├── /usr/hdp/2.2.0.0-2041/hadoop-hdfs/bin
│ ├── /usr/hdp/2.2.0.0-2041/hadoop-hdfs/lib
│ ├── /usr/hdp/2.2.0.0-2041/hadoop-hdfs/sbin
│ └── /usr/hdp/2.2.0.0-2041/hadoop-hdfs/webapps
├── /usr/hdp/2.2.0.0-2041/hbase
│ ├── /usr/hdp/2.2.0.0-2041/hbase/bin
│ ├── /usr/hdp/2.2.0.0-2041/hbase/conf -> /etc/hbase/conf
│ ├── /usr/hdp/2.2.0.0-2041/hbase/doc
│ ├── /usr/hdp/2.2.0.0-2041/hbase/include
│ ├── /usr/hdp/2.2.0.0-2041/hbase/lib
└── /usr/hdp/2.2.0.0-2041/zookeeper
├── /usr/hdp/2.2.0.0-2041/zookeeper/bin
├── /usr/hdp/2.2.0.0-2041/zookeeper/conf -> /etc/zookeeper/conf
├── /usr/hdp/2.2.0.0-2041/zookeeper/doc
├── /usr/hdp/2.2.0.0-2041/zookeeper/lib
├── /usr/hdp/2.2.0.0-2041/zookeeper/man
{code}
{code}
/usr/hdp/2.2.3.0-2611
├── /usr/hdp/2.2.3.0-2611/hadoop
│ ├── /usr/hdp/2.2.3.0-2611/hadoop/bin
│ ├── /usr/hdp/2.2.3.0-2611/hadoop/conf -> /etc/hadoop/conf
│ ├── /usr/hdp/2.2.3.0-2611/hadoop/lib
│ │ ├── /usr/hdp/2.2.3.0-2611/hadoop/lib/native
│ ├── /usr/hdp/2.2.3.0-2611/hadoop/libexec
│ ├── /usr/hdp/2.2.3.0-2611/hadoop/man
│ └── /usr/hdp/2.2.3.0-2611/hadoop/sbin
├── /usr/hdp/2.2.3.0-2611/hadoop-hdfs
│ ├── /usr/hdp/2.2.3.0-2611/hadoop-hdfs/bin
│ ├── /usr/hdp/2.2.3.0-2611/hadoop-hdfs/lib
│ ├── /usr/hdp/2.2.3.0-2611/hadoop-hdfs/sbin
│ └── /usr/hdp/2.2.3.0-2611/hadoop-hdfs/webapps
├── /usr/hdp/2.2.3.0-2611/hbase
│ ├── /usr/hdp/2.2.3.0-2611/hbase/bin
│ ├── /usr/hdp/2.2.3.0-2611/hbase/conf -> /etc/hbase/conf
│ ├── /usr/hdp/2.2.3.0-2611/hbase/doc
│ ├── /usr/hdp/2.2.3.0-2611/hbase/include
│ ├── /usr/hdp/2.2.3.0-2611/hbase/lib
└── /usr/hdp/2.2.3.0-2611/zookeeper
├── /usr/hdp/2.2.3.0-2611/zookeeper/bin
├── /usr/hdp/2.2.3.0-2611/zookeeper/conf -> /etc/zookeeper/conf
├── /usr/hdp/2.2.3.0-2611/zookeeper/doc
├── /usr/hdp/2.2.3.0-2611/zookeeper/lib
├── /usr/hdp/2.2.3.0-2611/zookeeper/man
{code}

管理活动版本
HDP 2.0之后推出了hdp-select服务,通过这个服务可以管理活动版本,默认就会安装hdp-select,可以通过hdp-select命令验证是否安装。

1
2
> hdp-select
> hdp-select versions

同样支持管理命令,例如:

> hdp-select set hadoop-hdfs-datanode 2.2.3.0-2600

安装后的库、工具和脚本

HDP 2.0之前安装后库放在/usr/lib下,现在放在/usr/hdp/current下:

/usr/hdp/current/hadoop-hdfs-namenode/
/usr/hdp/current/hadoop-yarn-resourcemanager
/usr/hdp/current/hadoop-mapreduce-client/hadoop-mapreduce-examples.jar

Daemon Scripts

/usr/hdp/current/hadoop-hdfs-namenode/../hadoop/sbin/hadoop-deamon.sh
/usr/hdp/current/hadoop-yarn-resourcemanager/sbin/yarn-daemon.sh
/usr/hdp/current/hadoop-yarn-nodemanager/sbin/yarn-daemon.sh

Configuration files

/etc/hadoop/conf

Bin Scripts

/usr/bin/hadoop -> /usr/hdp/current/hadoop-client/bin/hadoop

大数据动态之201502

本月Hadoop技术动态:
1.经过6年的孵化,Hive 1.0 发布了。
2.经过7年的孵化,HBase 1.0 发布了。
3.Cloudera 开始提供 Hive-on-Spark Beta版的下载。

HBase 1.0 需要特别关注的特性:
1.API的重新组织和变更;
2.读的高可用;
3.在线配置变更;

HDP 2.2 发布有一段时间:
http://hortonworks.com/blog/announcing-hive-1-0-stable-moment-time/
http://hortonworks.com/blog/start-new-era-apache-hbase-1-0/
http://blog.cloudera.com/blog/2015/02/apache-hbase-1-0-is-released/
http://blog.cloudera.com/blog/2015/02/download-the-hive-on-spark-beta/
https://issues.apache.org/jira/secure/attachment/12652517/Hive-on-Spark.pdf

Cluster Manager Framework:
1.YARN
2.Apache Helix

Hadoop发行版(2015第一季)

自从Hadoop的出现,引领大数据的浪潮越来越热。大数据存储的主要技术路线有几种:
1.Hadoop
2.Cassandra
3.MongoDB
Hadoop是Apache的开源项目,同时有很多商业公司对Hadoop进行版本发行和商业支持,参见:http://wiki.apache.org/hadoop/Distributions%20and%20Commercial%20Support
其中在最有名为人所知的三家:
1.Cloudera
这是一张图片

2.Hortonwork
这是一张图片

3.MapR
这是一张图片

这三个厂商之中,MapR最为封闭;Hortonworks最为开放,产品线全开源,在线文档比较丰富。国内使用Cloudera CDH和Hortonworks的应该是最多的。
准实时计算框架/即席查询
1.CDH的框架有:Impala + Spark;
2.HDP的框架有:Tez + Spark;
3.MapR的框架有:Drill + Tez + Spark。
关于Spark:
2014年大数据最热门的技术路线就是算是Spark了,而且得力于Spark不遗余力的推广和快速成长。Cloudera是最早支持Spark,也是最激进的。下图即是Spark在Cloudera产品线中的定位:
这是一张图片

实际上快速计算框架的发展才刚刚开始,社区中已经有如下几种:
1.Spark/Shark
2.Hortonworks Tez/Stinger
3.Cloudera Impala
4.Apache Drill
5.Apache Flink
6.Apache Nifi
7.Facebook Presto

2013年年终总结

又到了一年总结的时候,今年倒是有点晚了。感觉今年的时间过得飞快,放佛没感觉到时光的流逝,一直没想总结这事,这两天才开始琢磨。

年初给自己的两个目标,一个是多读书,一个是多了解架构知识。

多读书,这点上今年倒是读了不少杂书,包括:

重读了金庸的几本武侠小说,几本书基本上以前也读过,再次阅读,一是回想当初读的那个情景、那个思绪映像,另外再读的时候完全换了视角了,以一种置身世外的解读的心态来看,常常揣摩主人公在场景下的心态与抉择;

重读了四大名著除红楼之外的三部,特别是《西游记》,是第一次去读,以前只翻过几页,都没看过,一直觉得应该当着故事会来读,真读起来,才发现书中有很多有意思的地方,比方说书的第一主角真应该算是孙悟空吧,还有唐僧、孙悟空、猪八戒、沙和尚的关系和观念,都很有意思,还有孙悟空的诚心打动了猪八戒,确是一本可以细读的书。

读了《明朝那些事儿》《浪潮之巅》《乔布斯传》《基业长青》《创新者的窘境》等,读的都很粗线条,大部分都没有细读和做笔记。

另外有Kindle读了一些书,Kindle读书确实很方便,对我来说唯一的缺陷就是翻页查找太不方便了,对于我这种记忆里不好的人来说比较累。

了解架构,关于架构的书读得少,了解一下架构的范围和大致概念,比较收获的是开始去理解EA和TOGAF,可能他们对工作不会起到很大的直接作用,但发现对工作有非常大的辅助作用。架构方面实际脚踏实地的做事上做的很欠缺。

工作上今年做的事,大部分都能反映到WIKI上去,这里就不说了,想对自己说的就是:太被动,主动做的事儿太少。

言而总之,总而言之,这一年在读书和工作上对自己的评价是,看的多,做的少,创新的东西更少。身体健康方面是:体重增加了,锻炼减少了。

今年给自己打分,也就60分吧。

说了过去,就得展望一下未来:

读书这块,当然要继续读,下一步可能会更聚焦,有目的性的去读一些书。少随意性的阅读,多一些专注的阅读。

同时会把博客捡起来,坚持写博客,记录自己的想法。

工作这块,现在还没有想好,脑子里就是一些可能大家都知道的关键词,希望自己能做到:多创新,多行动,就是坚持做一些没做过的事;要主动,要规划,要坚持;要能落地的事,多总结积累。

用这篇小文,记录那渐行渐远的2013,迎接蓬勃而来的2014。

响应式网页设计(Responsive Web Design)

响应式网页设计,也叫:自适应网页设计。2010年,由Ethan Marcotte提出这个名词(Responsive Web Design) ,指可以自动识别屏幕宽度、并做出相应调整的网页设计。其目的就是希望搭建一个网站能够满足兼容多种终端的需求,不再是为每一种终端定制开发一个版本。应该是,这个思想主要是应对当前Web应用在各种移动终端上展示的挑战的。

主要的应对策略:

允许网页宽度自动调整;
不允许绝对宽度;
使用相对大小的字体;
流动布局;
选择加载CSS;
CSS的@media规则;
图片的自适应。
参考:
http://alistapart.com/article/responsive-web-design
http://www.ruanyifeng.com/blog/2012/05/responsive_web_design.html
http://www.qianduan.net/responsive-web-design.html
http://www.qianduan.net/media-type-and-media-query.html

HBTC 2012 见闻

今年Hadoop大会,加上了BigData,全称“Hadoop&Bigdata Technology Conference(Hadoop与大数据技术大会)”,随着“云计算”“Hadoop”“大数据”的热点,今年的大会事先很是期待,之后从中收获很多,坚信了我们在工作中的一些判断。从我的视角,今年HBTC主要覆盖如下的内容:
Hadoop与BigData主要的产品进展:
1.Hortonworks Hadoop/HBase
2.Intel Hadoop/Free Edition
3.Huawei Contributing Hadoop/HBase
4.Facebook Hadoop/HBase
5.Vmware Hadoop Virtualization
6.Oracle NoSQL
7.Taobao Tair
8.eBay Hadoop/HBase
意外的是Huawei对Hadoop社区的贡献度很大;Hortonworks只是一般性的宣讲,并没有重大的消息或者特性宣布。
Hadoop生态圈中本次被关注的技术:
1.Hadoop Security(Etu)
2.HIVE
3.HDFS Namenode
4.HBase
5.Pig
今年重点被关注的是HBase、Hive。
应用方面:
1.阿里Hadoop集群
a.3200台服务器,30K核,内存10TB,存储36K磁盘60PB。
b.支撑支付宝、CBU、聚划算、一淘、天猫、淘宝,1K+客户端/100+部门
c.Hadoop组件:Hive、Streaming MR、Mahout、Pig、HBase
d.客户端,用户/用户组权限管理/资源管理,申请/审批;云梯医生/JobTracker心跳频率/NameNode RPC性能指标;
e.数据采集:TimeTunnel分布式日志收集,DataX数据库同步,DBSync大表增量同步;
2.HIVE在腾讯分布式数据仓库
a.腾讯分布式数据仓库,简称:TDW;
b.基于Hadoop/Hive/PostgreSQL构建;
c.特性列表:存储和计算容灾/存储和计算线性扩展,SQL语言/SQL函数,过程语言,多维分析,MR,多种存储结构,SQL/MED,开发工具,任务调度系统,系统DB
d.TDW在Hive基础上进行的功能增强: 基于角色的权限管理; 兼容Oracle的分区功能; 窗口函数;多维分析;公用表表达式;DML(Update/Delete);入库数据校验;命令行工具;DB存储引擎;SQL语法细节增强;Eclipse IDE开发环境/流程开发工具;自定义的存储格式;Hash Join;按行split;Order by limit优化;
3.阿里数据交换平台
a.平台能力:存储与计算的调度、元数据管理、数据建模、IDE;市场应用:应用市场、数据市场;数据管理:预警、质量监控、ODS、生命周期管理;数据开发:安全、审计、计量、监控;
b.分析可视化;数据可视化;
c.ODPS:开放;服务化;离线数据分析服务;
d.ODS:开放与共享;源头数据质量监控;元数据管理;
4.百度大数据平台
a.基础能力包括:分布式存储(KV/Table);计算(批量计算/小批量计算/流式计算);调度(底层资源管理/上层通用调度);数据仓库体系(格式化/传输/数据仓库/报表&多维分析引擎/Ad Hoc查询引擎/BI)
b.OLAP查询以MySQL作为前端。
5.IBM在Hadoop/大数据方面的架构与实践
6.Startup企业MemSQL提供实时查询方案
7.Yahoo Hadoop应用、运维,还有其基于Hadoop的Data workflow
学校
有不少做研究的老师过来传道,其中有不少精华的东西,特别是哈尔滨工业大学的李建中和俄亥俄州立大学的张晓东教授给我留下了深刻的印象。
缺失
1.实时查询/流计算内容很少;也许会是明年的热点吧;
2.Cloudera/MapR都厂商没有来,无法面对面了解其一些技术特点和产品特性;
个人总结
1.技术上,今年Hadoop生态圈的热点是HBase、HDFS NameNode、HDFS Security;
2.应用与平台上,阿里/淘宝发展最快,其次是腾讯/百度。这三个公司的Hadoop集群为公司内部众多部门提供hadoop平台服务,特别是阿里比较突出,其中共有的特性:
a.工作的内容都是围绕为内部提供Hadoop集群/大数据服务平台;
b.技术路线都是以Hadoop、HBase、Hive/Pig、关系型数据库为主;
c.用户查询语言以兼容SQL语言为主;
d.计算查询主要是以批量计算、实时查询为主;
e.可视化方面的工作基本雷同:分析可视化、数据可视化、数据流程编排可视化;
f.平台在安全、隔离、调度、元数据管理、监控、预警告警、服务化、数据集成与共享等方面提供功能。
3.实时查询/流计算,虽然今年没有覆盖,但是各个厂商都有提到自己已经在这两个方面着手或者取得了一些进展。

佛教禅宗 六祖慧能

佛教禅宗 六祖慧能

慧能 (公元 638 年- 713 年),俗姓卢氏,唐代岭南新州(今广东新兴县)人,父亲名卢行瑫,早逝,母李氏,其籍贯为范阳(今北京大兴) , 因其父贬于岭南才南迁。慧能生于贞观,圆寂于开元初年,经历了唐朝太宗、高宗、中宗、睿宗、武周 ( 武则天 ) 、中宗、恭宗、睿宗、玄宗八位国君阶段。自幼以卖柴为生,因一次卖柴回家的路上听到有人读诵《金刚经》,便萌生学习佛法之念;后去湖北的黄梅山拜谒佛教禅宗五祖弘忍大师为师,由此开始了学佛生涯。其时弘忍年事已高,急于传付衣法,遂命弟子作偈以呈,当时大弟子神秀也是大家公认的禅宗衣钵的继承人,为了避嫌半夜起来,在院墙上写了一首偈子曰:

“身是菩提树,心如明镜台,

  时时勤拂拭,莫使惹尘埃。”

弘忍认为神秀还没有完全顿悟。

惠能当时做砍柴、碾米,听说这件事之后慧能就叫人带他去看偈子,听后亦诵一偈,因为自己是不会识字不会写字,并请当时在场的江州别驾张日用代劳题于壁上:

“菩提本无树,明镜亦非台,

  本来无一物,何处惹尘埃。”

弘忍见后,当众用鞋把慧能的偈搽掉,并说“亦未见性”。次日,弘忍大师来到碾米房,以杖击碓 ( 捣米器具 ) 而去;惠能立刻理解了五祖的意思,于是他在当晚上三更的时候去了弘忍的禅房。弘忍为其宣讲《金刚经》,并传衣钵,定为传人。然后为了防止有人伤害惠能,让惠能连夜逃走。于是惠能连夜远走南方,隐居 10 年之后才出来讲经传法。

676 年,唐高宗仪凤元年,正月初八到广州法性寺,印宗法师在该寺内讲《涅槃经》之际,正好遇到风吹幡动,一僧曰:风动;一僧曰:幡动;争论不休,惠能进曰:

“不是风动,亦非幡动,仁者心动”。

印宗闻之折服,遂拜为师,并为之剃度。

仪凤二年 (677 年 ) ,韶州刺史韦璩仰其道风,率同僚入山请惠能入城曹溪宝林寺(今广东韶关南华寺),于大梵寺讲堂为众说法,兼授无相戒。僧尼道俗集者千余人,门人法海编录其法语。慧能在此弘扬禅宗传法长达 37 年,奠定了禅宗“南宗”的基础。

神龙元年 (705 年 ) ,武则天和唐中宗即遣内侍薛简往曹溪召其入京。惠能以久处山林,年迈风疾,辞却不去。薛简恳请说法,将记录带回报命。中宗因赠摩纳袈裟一领及绢五百匹以为供养。并命改称宝林寺为中兴寺,由韶州刺史重修,又给予法泉寺额,并以惠能新州故宅为国恩寺。

延和元年 (712 年 ) 惠能回至新州,命门人建报恩塔。唐玄宗先天二年( 713 年),圆寂于新州国恩寺,世寿七十六,唐宪宗谥号大鉴禅师。惠能圆寂后,其真身不坏,被运回韶州(今广东韶关)曹溪,其门人裹综涂漆,保持其生前形像。其肉身像至今还保存在南华寺,供奉在灵照塔中。

南北宗之争

惠能,主张“顿悟”,影响华南诸宗派,人称“南宗”,在曹溪宝林寺(今广东韶关南华寺)弘扬禅宗传法长达 37 年之久。六祖惠能的同门师兄神秀,主张“渐悟”,在华北势力颇盛,号称“北宗”。

唐玄宗开元二年( 730 年),在河南滑台(今滑县)的无遮大会上,惠能弟子荷泽神会辩倒了神秀门人崇远、普寂,使得“南宗”成为中国禅宗正统。

惠能为禅宗的发展奠定了理论基础,对于后来各派禅师建立门庭,影响极大。在他死后,他的弟子传承禅法,形成惠能禅法的南北二宗。惠能禅法的北宗即是荷泽神会门下,称荷泽宗。惠能禅法的南宗则以南岳怀让门下的洪州宗,与青原行思、石头希迁一系的石头宗为代表。

惠能禅法在北宗荷泽一派的推动下,取代了原先北宗神秀一系的地位,成为禅门正宗,但荷泽一派因后继无人,在唐末衰亡。对后世影响较大的反而是南宗门下。南宗门下,后来形成河北临济宗、江西曹洞宗、湖南沩仰宗、广东云门宗、江苏法眼宗五宗,即“一花开五叶”。

后来,法眼宗远传于泰国、朝鲜;云门宗、临济宗更远播欧美。在中国、日本,则是临济宗、曹洞宗两宗最盛。

经典

惠能圆寂后,其弟子们 将其经历和言论录整理成《六祖坛经》,简称《坛经》,是禅宗的经典。

著名弟子

弟子众多,最著名的有:荷泽神会、青原行思、南岳怀让、石头希迁、净藏。

禅宗

禅宗,又称宗门,汉传佛教宗派之一,始于菩提达摩,盛于六祖惠能,中晚唐之后成为汉传佛教的主流,也是汉传佛教最主要的象征之一。汉传佛教宗派多来自于印度,但唯独天台宗、华严宗与禅宗,是由中国独立发展出的三个本土佛教宗派。其中又以禅宗最具独特的性格。禅宗祖师会运用各种教学方法,以求达到这种境界,这又称开悟。其核心思想为:

“不立文字,教外别传;

  直指人心,见性成佛”。

轶事

《西游记》孙悟空学艺的故事可能取材于六祖慧能的学佛经历。

<集合>红色趣味丛书

《老总小传》作者:马甲同志 http://blog.sina.com.cn/s/blog_5091b1dd0100c3nq.html

以非常不传统的视角书写总司令的光辉历程。

《非常轨迹——记中央红军长征中的四渡赤水抢渡金沙江之战》 作者:双石 http://zhoujun.blshe.com/category/349/9197

以电报文和分析为基础,重现“四渡赤水”;

时间,从193412月至19355月;

地点,湘(湖南)、桂(广西)、黔(贵州)、川(四川)、滇(云南);

中共参战部队:

    军委纵队,叶剑英、陈云;

    红一军团,林彪、聂荣臻;

    红三军团,彭德怀、杨尚昆;

    红五军团,董振堂、李卓然;

    红九军团,罗炳辉、何长工;

    游击队若干;

KMT参战:

    中央军,薛岳;

    湘军,何健;

    黔军,王家烈;

    川军,刘湘;

    川军,刘文辉;

    桂军,李宗仁,白崇禧;

    滇军,龙云;

    地方民团若干;            

《朱毛之争》 作者:双石 http://zhoujun.blshe.com/category/349/9689

主要是叙述,分析发生在1929年6月的朱毛之争的前前后后,左左右右的一些事儿。

《Ifuleu红色八卦系列:【井冈山】》作者: 双石 http://zhoujun.blshe.com/category/349/34826

主要是叙述开始于1927年秋朱毛红军在井冈山的成长、战斗的事儿。

《十大元帅的情缘》 作者:孔庆东 http://blog.sina.com.cn/s/blog_476da36101000axq.html

《红军林彪》 作者:子金山 http://blog.sina.com.cn/s/articlelist_1256636234_10_1.html

主要是叙述了林彪元帅从1927年南昌起义到1935年红军长征结束这一段时间内的战斗历程。

Android实战第三季-调试

Android 初调试

在 Android 平台开发,需要在一个模式或者真实的环境之下进行一下调试、验证,至少有三种方式:

  1. Eclipse + AVD ,通过 Eclipse 或者 Android SDK 自带的命令行创建 Android Virtual Device ;

  2. Eclipse + Android Device ,通过一个真实 Android 设备通过 USB 和电脑相连进行调试;

  3. Eclipse + Android System over Virtual Machine ,在系统安装一个虚拟机软件,比方说: VirtualBox , VmWare , VirtualPC 等,然后下载一个 Android ROM 安装到虚拟机之中,配置虚拟机的网络和 Host 主机相连,然后在 Host 主机中通过 adb 命令 adb connect android-ip 连接虚拟机中的 Android 系统,然后就可以进行调试了。

对于一些和 ROM 相关的开发、调试,最后现在虚拟机环境下进行调试,以免于把真实 Android Phone 给“砖头”了。

Android 源代码下载和编译:

  1. 拥有 Ubuntu 系统,进入到 Ubuntu 系统;

  2. 安装 cURL 。什么是 cURL ,官方解释:支持很多协议: FTP, FTPS, HTTP, HTTPS, GOPHER, TELNET, DICT, FILE 以及 LDAP 。 curl 同样支持 HTTPS 认证, HTTP POST 方法 , HTTP PUT 方法 , FTP 上传 , kerberos 认证 , HTTP 上传 , 代理服务器 , cookies, 用户名 / 密码认证 , 下载文件断点续传 , 上载文件断点续传 , http 代理服务器管道( proxy tunneling ) , 甚至它还支持 IPv6, socks5 代理服务器 , 通过 http 代理服务器上传文件到 FTP 服务器等等,功能十分强大。下载地址: http://curl.haxx.se/download.html

  3. 安装 Git ;

  4. 建立 ~/bin 目录,将这个目录配置到环境变量 ~/.bashrc 里面: export PATH=~/bin:$PATH

  5. 安装 Repo ,通过命令: curl http://android.git.kernel.org/repo >~/bin/repo

  6. 改变 ~/bin/repo的权限: chmod a+x ~/bin/repo

  7. 初始化版本库: repo init -u git://android.git.kernel.org/platform/manifest.git -b froyo

  8. 同步 repo sync

  9. make(make 的时候出错了,注意查看,极有可能是缺少系统库,根据错误提示安装 系统库即可 )

  10. 最后编译完的库文件,主要集中在 out\target 路径下面。例如编译后的 framework. jar 位置在 out\target\common\obj\JAVA_LIBRARIES\framework_intermediates\classes.jar 。

并且可以参考:
http://mintelong.iteye.com/blog/466893
http://www.williamhua.com/2009/04/29/
http://source.android.com/source/build-numbers.html

在 ubuntu 下使用 Eclipse+VirtualBox 进行 Android 开发:

  1. 安装 Sun JDK;
  2. 安装 Eclipse + Android plugin;
  3. 安装 Android SDK for linux, 配置 adb 的所在目录到 path 中;
  4. 下载 Android 源代码并且编译;
  5. 安装 virtualbox;
  6. 下载到开发版本的 android rom 的 iso 文件 ;
  7. 在 virtualbox 中创建一个虚拟机,将 iso 加载到虚拟机的光盘中,将 android rom 安装到硬盘中,在安装过程中选择 /system 目录为 read-write ,并且创建 sdk 虚拟卡。 android 自动将其挂在到安装后的 /sdcard 路径 ;
    选择虚拟机的网络方式是 :bridged adapter ,虚拟机的操作系统会自动从 ubuntu 一样,从外部路由器中获取一个独立的 ip ,可以和 ubuntu 互通,也可以通过路由器上网。
  8. 登录到虚拟机中的 android 系统,通过 devtools 应用的子项 Terminal simulator 进入到命令行界面,通过 ip addr 看到本机的 ip(android-ip).
  9. 在 ubuntu 的命令行中: adb connect android-ip
  10. 进入到 Eclipse 中,模拟器可以选择 AVD 调试 app 开发,也可以选择 manual 方式到虚拟机中的 android 环境进行开发。 Eclipse 调试环境自动将 apk 发布到虚拟机 Android 的目录 /system/app 下。 .
  11. 在 ubuntu 下,鼠标在 ubuntu 和虚拟机之间切换的快捷键:键盘中的 右 ctrl + i 就可以了。