用SQL玩转数据挖掘之MADlib(一)——安装

  一、MADlib简介
  
  MADlib是Pivotal公司与伯克利大学合作的一个开源机器学习库,提供了精确的数据并行实现、统计和机器学习方法对结构化和非结构化数据进行分析,主要目的是扩展数据库的分析能力,可以非常方便的加载到数据库中, 扩展数据库的分析功能,2015年7月MADlib成为Apache软件基金会的孵化项目,其最新版本为MADlib1.11,可以用在Greenplum、PostgreSQL和HAWQ等数据库系统中。
  
  1. 设计思想
  
  驱动MADlib架构的主要思想与Hadoop是一致的,主要体现在以下方面:
  
  操作数据库内的本地数据,不在多个运行时环境中进行不必要的数据移动。
  
  充分利用数据库引擎的功能,但将机器学习逻辑从特定数据库的实现细节中分离出来。
  
  利用MPP无共享技术提供的并行性和可扩展性,如Greenplum数据库和HAWQ。
  
  执行的维护活动对Apache社区和正在进行的学术研究开放。
  
  如果只用一句话总结MADlib的特点,就如标题所述,可以用SQL玩转数据分析、数据挖掘和机器学习。
  
  2. 特性
  
  (1)分类
  
  如果所需的输出实质上是分类的,可以使用分类方法建立模型,预测新数据会属于哪一类。分类的目标是能够将输入记录标记为正确的类别。
  
  分类的例子:假设有描述人口统计的数据,以及个人申请贷款和贷款违约历史数据,那么我们就能建立一个模型,描述新的人口统计数据集合贷款违约的可能性。此场景下输出的分类为“违约”和“正常”两类。
  
  (2)回归
  
  如果所需的输出具有连续性,我们使用回归方法建立模型,预测输出值。
  
  回归的例子:如果有真实的描述房地产属性的数据,我们就可以建立一个模型,预测基于房屋已知特征的售价。因为输出反应了连续的数值而不是分类,所以该场景是一个回归问题。
  
  (3)聚类
  
  识别数据分组,一组中的数据项比其它组的数据项更相似。
  
  聚类的例子:在客户细分分析中,目标是识别客户行为相似特征组,以便针对不同特征的客户设计各种营销活动,以达到市场目的。如果提前了解客户细分情况,这将是一个受控的分类任务。当我们让数据识别自身分组时,这就是一个聚类任务。
  
  (4)主题建模
  
  主题建模与聚类相似,也是确定彼此相似的数据组。但这里的相似通常特指在文本领域中,具有相同主题的文档。
  
  (5)关联规则挖掘
  
  又叫做购物篮分析或频繁项集挖掘。相对于随机发生,确定哪些事项更经常一起发生,指出事项之间的潜在关系。
  
  关联规则挖掘的例子:在一个网店应用中,关联规则挖掘可用于确定哪些商品倾向于被一起售出。然后将这些商品输入到客户推荐引擎中,提供促销机会,如著名的啤酒与尿布的故事。
  
  (6)描述性统计
  
  描述性统计不提供模型,因此不被认为是一种机器学习方法。但描述性统计有助于向分析人员提供信息以了解基础数据,为数据提供有价值的解释,可能影响数据模型的选择。
  
  描述性统计的例子:计算数据集中每个变量内的数据分布,可以帮助分析式理解哪些变量应被视为分类变量,哪些变量是连续性变量,以及值的分布情况。
  
  (7)模型验证
  
  如果不了解一个模型的准确性就开始使用它,会导致糟糕的结果。正因如此,理解模型存在的问题,并用测试数据评估模型的精度显得尤为重要。需要将训练数据和测试数据分离,频繁进行数据分析,验证统计模型的有效性,评估模型不过分拟合训练数据。N-fold交叉验证也经常被使用。
  
  3. 功能
  
  MADlib的功能特色如图1所示。
  
  图1
  
  ? Data Types and Transformations(数据类型转换)
  
  ? Arrays and Matrices(数组与矩阵)
  
  o Array Operations(数组运算)
  
  o Matrix Operations(矩阵运算)
  
  o Matrix Factorization(低矩阵分解)
  
  o Low-rank Matrix Factorization(低阶矩阵分解)
  
  o Singular Value Decomposition(SVD,奇异值分解)
  
  o Norms and Distance functions(规范和距离函数)
  
  o Sparse Vectors(稀疏向量)
  
  ? Dimensionality Reduction(降维)
  
  o Principal Component Analysis(PCA主成分分析)
  
  o Principal Component Projection(PCP主成分投影)
  
  ? Encoding Categorical Variables(编码分类变量)
  
  ? Stemming(切词)
  
  ? Model Evaluation(模型评估)
  
  ? Cross Validation(交叉验证)
  
  ? Statistics(统计)
  
  ? Descriptive Statistics(描述性统计)
  
  o Pearson’s Correlation(皮尔斯相关性)
  
  o Summary(摘要汇总)
  
  ? Inferential Statistics(推断性统计)
  
  o Hypothesis Tests(假设检验)
  
  ? Probability Functions(概率函数)
  
  ? Supervised Learning(监督学习算法)
  
  ? Conditional Random Field(条件随机场)
  
  ? Regression Models(回归模型)
  
  o Clustered Variance(聚类方差)
  
  o Cox-Proportional Hazards Regression(Cox比率风险回归模型)
  
  o Elastic Net Regularization(Elastic Net 回归)
  
  o Generalized Linear Models
  
  o Linear Regression(线性回归)
  
  o Logistic Regression(逻辑回归)
  
  o Marginal Effects(边际效应)
  
  o Multinomial Regression(多项式回归)
  
  o Ordinal Regression(有序回归)
  
  o Robust Variance(鲁棒方差)
  
  ? Support Vector Machines(SVM,支持向量机)
  
  ? Tree Methods(树模型)
  
  o Decision Tree(决策树)
  
  o Random Forest(随机森林)
  
  ? Time Series Analysis(时间序列分析)
  
  ? ARIMA(自回归积分滑动平均模型)
  
  ? Unsupervised Learning(无监督学习)
  
  ? Association Rules(关联规则)
  
  o Apriori Algorithm(Apriori算法)
  
  ? Clustering(聚类)
  
  o k-Means Clustering(k-Means)
  
  ? Topic Modelling(主题模型)
  
  o Latent Dirichlet Allocation(LDA)
  
  ? Utility Functions(效用函数)
  
  ? Developer Database Functions(开发者数据库函数)
  
  ? Linear Solvers(线性求解器)
  
  o Dense Linear Systems(稠密线性系统)
  
  o Sparse Linear Systems(稀疏线性系统)
  
  ? Path Functions(路径函数)
  
  ? PMML Export(PMML输出)
  
  ? Text Analysis(文本分析)
  
  o Term Frequency(词频,TF)
  
  二、安装
  
  1. 确定安装平台
  
  MADlib最新发布版本是1.11,可以安装在PostgreSQL、Greenplum和HAWQ中,在不同的数据库中安装过程也不尽相同。我是安装在HAWQ2.1.1.0中。
  
  2. 下载MADlib二进制安装压缩包
  
  下载地址为:https://network.pivotal.io/products/pivotal-hdb。2.1.1.0版本的HAWQ提供了四个安装文件,如图2所示。经过测试,只有MADlib 1.10.0版本的文件可以正常安装。
  
  图2
  
  3. 安装MADlib
  
  以下命令需要使用gpadmin用户,在HAWQ的master主机上执行。
  
  (1)解压缩
  
  [plain] view plain copy
  
  tar -zxvf madlib-ossv1.10.0_pv1.9.7_hawq2.1-rhel5-x86_64.tar.gz
  
  (2)安装MADlib的gppkg文件
  
  [plain] view plain copy
  
  gppkg -i madlib-ossv1.10.0_pv1.9.7_hawq2.1-rhel5-x86_64.gppkg
  
  该命令在HAWQ集群的所有节点(master和segment)上创建MADlib的安装目录和文件,缺省目录为/usr/local/hawq_2_1_1_0/madlib。
  
  (3)在指定数据库中部署MADlib
  
  [plain] view plain copy
  
  $GPHOME/madlib/bin/madpack install -c /dm -s www.wanmeiyuele.cn madlib -p hawq
  
  该命令在HAWQ的dm数据库中建立madlib schema,-p参数指定平台为HAWQ。命令执行后可以查看在madlib schema中创建的数据库对象。
  
  [plain] view plain copy
  
  dm=# set search_path=madlib;
  
  SET
  
  dm=# \dt
  
  List of relations
  
  Schema | Name | Type | Owner | Storage
  
  --------+------------------+-------+---------+-------------
  
  madlib | migrationhistory | table | gpadmin | append only
  
  (1 row)
  
  dm=# \ds
  
  List of relations
  
  Schema | Name | Type | Owner | Storage
  
  --------+-------------------------+----------+---------+---------
  
  madlib | migrationhistory_id_seq | sequence | gpadmin | heap
  
  (1 row)
  
  dm=# select type,count(*)
  
  dm-# from (select p.proname as name,
  
  dm(# case when p.proisagg then ‘agg‘
  
  dm(# when p.prorettype = ‘pg_catalog.trigger‘::pg_catalog.regtype then ‘trigger‘
  
  dm(# else ‘normal‘
  
  dm(# end as type
  
  dm(# from pg_catalog.pg_proc p, pg_catalog.pg_namespace n
  
  dm(# where n.oid = p.pronamespace and n.nspname=‘madlib‘) t
  
  dm-# group by rollup (type);
  
  type | count
  
  --------+-------
  
  agg | 135
  
  normal | 1324
  
  | 1459
  
  (3 rows)
  
  可以看到,MADlib部署应用程序madpack首先创建数据库模式madlib,然后在该模式中创建数据库对象,包括 一个表,一个序列,1324个普通函数,135个聚合函数。所有的机器学习和数据挖掘模型、算法、操作和功能都是通过调用这些函数实际执行的。
  
  (4)验证安装
  
  [plain] view plain copy
  
  $GPHOME/madlib/bin/madpack install-check -c /dm -s madlib -p hawq
  
  该命令通过执行29个模型的77个案例,验证所有模型都能正常工作。命令输出如下:
  
  [plain] view plain copy
  
  [[email protected] Madlib]$ $GPHOME/madlib/bin/madpack install-check -c /dm -s madlib -p hawq
  
  madpack.py : INFO : Detected HAWQ version 2.1.
  
  TEST CASE RESULT|Module: array_ops|array_ops.sql_in|PASS|Time: 1851 milliseconds
  
  TEST CASE RESULT|Module: bayes|gaussian_naive_www.longboshyl.cn bayes.sql_in|PASS|Time: 24222 milliseconds
  
  TEST CASE RESULT|Module: bayes|bayes.sql_in|PASS|Time: 70634 milliseconds
  
  TEST CASE RESULT|Module: crf|crf_train_small.sql_in|PASS|Time: 27186 milliseconds
  
  TEST CASE RESULT|Module: crf|crf_train_large.sql_in|PASS|Time: 32602 milliseconds
  
  TEST CASE RESULT|Module: crf|crf_test_small.sql_in|PASS|Time: 22410 milliseconds
  
  TEST CASE RESULT|Module: crf|crf_test_large.sql_in|PASS|Time: 21711 milliseconds
  
  TEST CASE RESULT|Module: elastic_net|elastic_net_install_check.sql_in|PASS|Time: 931563 milliseconds
  
  TEST CASE RESULT|Module: graph|sssp.sql_in|PASS|www.jiaeidaypt.cn Time: 18174 milliseconds
  
  TEST CASE RESULT|Module: linalg|svd.sql_in|PASS|Time: 72105 milliseconds
  
  TEST CASE RESULT|Module: linalg|matrix_ops.sql_in|PASS|Time: 58312 milliseconds
  
  TEST CASE RESULT|Module: linalg|linalg.sql_in|PASS|Time: 2836 milliseconds
  
  TEST CASE RESULT|Module: pmml|table_to_pmml.sql_in|PASS|Time: 34508 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_rf.sql_in|PASS|Time: 35993 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_ordinal.sql_in|PASS|Time: 15540 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_multinom.sql_in|PASS|Time: 12546 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_glm_poisson.sql_in|www.huazongyule.net PASS|Time: 7321 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_glm_normal.sql_in|PASS|Time: 8597 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_glm_ig.sql_in|PASS|Time: 8861 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_glm_gamma.sql_in|PASS|Time: 26212 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_glm_binomial.sql_in|PASS|Time: 12977 milliseconds
  
  TEST CASE RESULT|Module: pmml|pmml_dt.sql_in|PASS|Time: 9401 milliseconds
  
  TEST CASE RESULT|Module: prob|prob.sql_in|PASS|Time: 1917 milliseconds
  
  TEST CASE RESULT|Module: sketch|support.sql_in|PASS|Time: 143 milliseconds
  
  TEST CASE RESULT|Module: sketch|mfv.sql_in|PASS|Time: 720 milliseconds
  
  TEST CASE RESULT|Module: sketch|fm.sql_in|PASS|Time: 7301 milliseconds
  
  TEST CASE RESULT|Module: sketch|cm.sql_in|PASS|Time: 19777 milliseconds
  
  TEST CASE RESULT|Module: svm|svm.sql_in|PASS|Time: 205677 milliseconds
  
  TEST CASE RESULT|Module: tsa|arima_train.sql_in|PASS|Time: 75680 milliseconds
  
  TEST CASE RESULT|Module: tsa|arima.sql_in|PASS|Time: 76236 milliseconds
  
  TEST CASE RESULT|Module: conjugate_gradient|conj_grad.sql_in|PASS|Time: 6757 milliseconds
  
  TEST CASE RESULT|Module: knn|knn.sql_in|PASS|Time: 9835 milliseconds
  
  TEST CASE RESULT|Module: lda|lda.sql_in|PASS|Time: 20510 milliseconds
  
  TEST CASE RESULT|Module: stats|wsr_test.sql_in|PASS|Time: 2766 milliseconds
  
  TEST CASE RESULT|Module: stats|t_test.sql_in|PASS|Time: 3686 milliseconds
  
  TEST CASE RESULT|Module: stats|robust_and_clustered_variance_coxph.sql_in|PASS|Time: 17499 milliseconds
  
  TEST CASE RESULT|Module: stats|pred_metrics.sql_in|PASS|Time: 14032 milliseconds
  
  TEST CASE RESULT|Module: stats|mw_test.sql_in|PASS|Time: 1852 milliseconds
  
  TEST CASE RESULT|Module: stats|ks_test.sql_in|PASS|Time: 2465 milliseconds
  
  TEST CASE RESULT|Module: stats|f_test.sql_in|PASS|Time: 2358 milliseconds
  
  TEST CASE RESULT|Module: stats|cox_prop_hazards.sql_in|PASS|Time: 39932 milliseconds
  
  TEST CASE RESULT|Module: stats|correlation.sql_in| www.wmyl11.com PASS|Time: 10520 milliseconds
  
  TEST CASE RESULT|Module: stats|chi2_test.sql_in|PASS|Time: 3581 milliseconds
  
  TEST CASE RESULT|Module: stats|anova_test.sql_in|PASS|Time: 1801 milliseconds
  
  TEST CASE RESULT|Module: svec_util|svec_test.sql_in|PASS|Time: 14043 milliseconds
  
  TEST CASE RESULT|Module: svec_util|gp_sfv_sort_order.sql_in|PASS|Time: 3399 milliseconds
  
  TEST CASE RESULT|Module: utilities|text_utilities.sql_www.wmyl15.com in|PASS|Time: 6579 milliseconds
  
  TEST CASE RESULT|Module: utilities|sessionize.sql_in|PASS|Time: 3901 milliseconds
  
  TEST CASE RESULT|Module: utilities|pivot.sql_in|PASS|Time: 15634 milliseconds
  
  TEST CASE RESULT|Module: utilities|path.sql_in|PASS|Time: 9321 milliseconds
  
  TEST CASE RESULT|Module: utilities|encode_categorical.sql_in|PASS|Time: 7665 milliseconds
  
  TEST CASE RESULT|Module: utilities|drop_madlib_temp.sql_in|PASS|Time: 153 milliseconds
  
  TEST CASE RESULT|Module: assoc_rules|assoc_rules.sql_in|PASS|Time: 31975 milliseconds
  
  TEST CASE RESULT|Module: convex|lmf.sql_in|PASS|Time: 66775 milliseconds
  
  TEST CASE RESULT|Module: glm|poisson.sql_in|PASS|Time: www.ruanjianyin.cn 19117 milliseconds
  
  TEST CASE RESULT|Module: glm|ordinal.sql_in|PASS|Time: 23446 milliseconds
  
  TEST CASE RESULT|Module: glm|multinom.sql_in|PASS|Time: 18780 milliseconds
  
  TEST CASE RESULT|Module: glm|inverse_gaussian.sql_in|PASS|Time: 20931 milliseconds
  
  TEST CASE RESULT|Module: glm|gaussian.sql_in|PASS|Time: 23795 milliseconds
  
  TEST CASE RESULT|Module: glm|gamma.sql_in|PASS|Time: 43365 milliseconds
  
  TEST CASE RESULT|Module: glm|binomial.sql_in|PASS|Time: 39437 milliseconds
  
  TEST CASE RESULT|Module: linear_systems|sparse_linear_sytems.sql_in|PASS|Time: 5405 milliseconds
  
  TEST CASE RESULT|Module: linear_systems|dense_linear_sytems.sql_in|PASS|Time: 3331 milliseconds
  
  TEST CASE RESULT|Module: recursive_partitioning|random_forest.sql_in|PASS|Time: 294832 milliseconds
  
  TEST CASE RESULT|Module: recursive_partitioning|decision_tree.sql_in|PASS|Time: 91311 milliseconds
  
  TEST CASE RESULT|Module: regress|robust.sql_in|PASS|Time: 55325 milliseconds
  
  TEST CASE RESULT|Module: regress|multilogistic.sql_in|PASS|Time: 25330 milliseconds
  
  TEST CASE RESULT|Module: regress|marginal.sql_in|PASS|Time: www.10000da.cn 73750 milliseconds
  
  TEST CASE RESULT|Module: regress|logistic.sql_in|PASS|Time: 76501 milliseconds
  
  TEST CASE RESULT|Module: regress|linear.sql_in|PASS|Time: 7517 milliseconds
  
  TEST CASE RESULT|Module: regress|clustered.sql_in|PASS|Time: 40661 milliseconds
  
  TEST CASE RESULT|Module: sample|sample.sql_in|PASS|Time: 890 milliseconds
  
  TEST CASE RESULT|Module: summary|summary.sql_in|PASS|Time: 14644 milliseconds
  
  TEST CASE RESULT|Module: kmeans|kmeans.sql_in|PASS|Time: 52173 milliseconds
  
  TEST CASE RESULT|Module: pca|pca_project.sql_in|PASS|Time: 229016 milliseconds
  
  TEST CASE RESULT|Module: pca|pca.sql_in|PASS|Time: 523230 milliseconds
  
  TEST CASE RESULT|Module: validation|cross_validation.sql_in|PASS|Time: 33685 milliseconds
  
  [[email protected] Madlib]$
  
  可以看到,所有案例都已经正常执行,说明MADlib安装成功。
  
  三、卸载
  
  卸载过程基本上是安装的逆过程。
  
  1. 删除madlib模式
  
  方法1,使用madpack部署应用程序。
  
  [plain] view plain copy
  
  $GPHOME/madlib/bin/madpack uninstall -c /dm -s madlib -p hawq
  
  方法2,使用SQL命令手工删除模式。
  
  [sql] view plain copy
  
  drop schema madlib cascade;
  
  2. 删除其它遗留数据库对象
  
  (1)删除模式
  
  如果测试中途出错,数据库中可能包含测试的模式,这些模式名称的前缀都是madlib_installcheck_,只能手工执行SQL命令删除这些模式,如:
  
  [plain] view plain copy
  
  drop schema madlib_installcheck_kmeans cascade;
  
  (2)删除用户
  
  如果存在遗留的测试用户,则删除它。
  
  [sql] view plain copy
  
  drop user if exists madlib_1100_installcheck;
  
  3. 删除MADlib rpm包
  
  (1)查询包名
  
  [plain] view plain copy
  
  gppkg -q --all
  
  输出如下:
  
  [plain] view plain copy
  
  [[email protected] Madlib]$ gppkg -q --all
  
  20170630:16:19:53:076493 gppkg:hdp3:gpadmin-[INFO]:-Starting gppkg with args: -q --all
  
  madlib-ossv1.10.0_pv1.9.7_hawq2.1
  
  (2)删除rpm包
  
  [plain] view plain copy
  
  gppkg -r madlib-ossv1.10.0_pv1.9.7_hawq2.1

时间: 07-01

用SQL玩转数据挖掘之MADlib(一)——安装的相关文章

Sql Server Compact 4.0数据库部署安装

Sql Server Compact 4.0相比3.5版本增强了很多,支持Entity Framework 4.1,对于轻量级应用来讲,使用Sql Server Compact 4.0是个很好的选择,而且部署相当方便,不需要 Sql Server Compact 4.0的安装包,仅需要发布相关的dll以及web.config配置即可. 开发环境下,需要安装 vs2010 sp1 Microsoft SQL Server Compact 4.0 Visual Studio 2010 SP1 Too

Microsoft SQL Server 2008 R2完全卸载再安装手册

  Microsoft SQL Server 2008 R2安装后,可能一些原因导致程序故障,需要重新安装,但是卸载后,很难再进行安装,基本都会报错,导致程序无法正常安装使用,以下是亲测有效的方法,屡试不爽,以及一些其它可能出现的问题,如参照以下方法仍旧不能解决,建议重新安装系统,再安装数据库,这是最简单最有效的方法,. 第一部分完全卸载Microsoft SQL server 2008 R2 首先进入控制面板:鼠标左键点击左下角windows图标键 2. 进入后选择程序和功能 找到Micros

安装了SQL2005再安装SQL 2008R2,提示此计算机上安装了 Microsoft Visual Studio 2008 的早期版本和检查是否安装了 SQL Server 2005 Express 工具的解决方案

工作电脑上安装了SQL 2005, 但是客户电脑上安装的是SQL 2008R2,有时候连接他们的库调试没法连接,很不方便.然后又安装了个SQL2008 R2,期间遇到这两个问题,网上搜索了一下收到了解决方案,不用安装VS 2008 SP1,不用卸载SQL Server 2005 Express 工具,只需要修改注册表即可. 提示错误:此计算机上安装了 Microsoft Visual Studio 2008 的早期版本.请在安装 SQL Server 2008 前将 VS2008 升级到 SP1

数据挖掘算法Analysis Services-基于SQL Server的数据挖掘

数据挖掘算法(Analysis Services – 数据挖掘) data mining algorithm is a set of heuristics and calculations that creates a data mining model from data.” xml:space=”preserve”>“数据挖掘算法”是根据数据创建数据挖掘模型的一组试探法和计算. 为了创建模型,算法将首先分析您提供的数据,并查找特定类型的模式和趋势. 算法使用此分析的结果来定义用于创建挖掘模型

在 SQL Server 中从完整路径提取文件名(sql 玩转文件路径)

四个函数: --1.根据路径获取文件名 -- ============================================= -- Author: Paul Griffin -- Create date: 18 January 2015 -- Description: Returns a filename with extension -- from a full path: -- D:\Temp\Resources\Images\My.Picture.jpg -- ==> My.P

SQL Server 2016 CTP3 集成R语言安装配置手册

1. 适用范围 SQL Server 2016 CTP3基于 Windows Server 2016 TP3进行单机R集成部署指引手册 非域环境,R非群集 2. 安装准备 2.1 硬件准备 MSDN建议最低1GB内存,但我们考虑到R需要大量内存进行计算故建议至少4GB 2.2 软件准备 Revolution R Open 3.2.2 for Revolution R Enterprise 7.5.0 http://go.microsoft.com/fwlink/?LinkId=626650 Re

写一下自己一个星期玩树莓派的经验,如何安装系统,如何在树莓派中安装opencv,如何运行代码。

在树莓派上安装opencv最简单的方法是: sudo apt-get update sudo apt-get install libopencv-dev sudo apt-get install python-opencv 如果你还想了解更多,下面提供的那么多链接中你一定找到方法的,饭都送到你面前你不会吃,那么你活该饿着. 平时自己习惯用vim 所以在树莓派上安装了vim编辑器 安装命令  sudo apt-get  install  vim 就可以了. 好了,可以运行一个opencv的例子来检

汉澳sinox2014看电影玩flash游戏最佳办法是安装windows版firefox

其实汉澳sinox本身并没有原生flashplayer,不管怎么捣鼓,都是从adobe获得linux或者windows版本flashplayer,与其不停捣鼓linux版本flashplayer,不知安装windows版本浏览器直接让windows版浏览器支持flashplayer,这样看电影更加兼容,丝毫没有障碍. 目前已经知道firefox的 windows版本在sinox运行很好,虽然没有十全十美(字体有点模糊,解决办法是把simsun.ttc字体文件扔到/usr/local/share/

PL/SQL远程连接Oracle的方式,无需安装客户端

第一次用PL/SQL Developer这个非官方的软件,遇到了种种困难,幸好通过万能的Google已经全部解决,记录下来备察. 前提是保证你的远程oracle服务器一切正常. 微软客户端设置 使用oracle免费发放的instant client来代替oracle client,免去了安装的麻烦,下载instantclient-basiclite-nt-11.2.0.2.0.zip解压到你想要放到的任何目录,如:D:\oracle\instantclient_11_2,创建一个名叫tnsnam