当前位置:首页 > 编程教程 > Python技术文章 > 3个用于数据科学的顶级Python库

3个用于数据科学的Python库整理

  • 发布时间:
  • 作者:码农之家
  • 点击:67

这篇文章主要知识点是关于数据科学、Python库、Python 数据处理库 pandas 入门教程基本操作 的内容,如果大家想对相关知识点有系统深入的学习,可以参阅以下电子书

Python 3.7编程快速入门
  • 类型:Python 3.7大小:18.5 MB格式:PDF作者:潘中强 薛
立即下载

3个用于数据科学的顶级Python库

Python有许多吸引力,如效率,代码可读性和速度,使其成为数据科学爱好者的首选编程语言。Python通常是希望升级其应用程序功能的数据科学家和机器学习专家的首选。
由于其广泛的用途,Python拥有大量的库,使数据科学家可以更轻松地完成复杂的任务,而无需很多编写代码的麻烦。以下是数据科学的前3个Python库。
使用这些库将Python转化为一个科学的数据分析和建模工具。

1.NumPy

NumPy(Numerical Python的缩写)是配备有用资源的顶级库之一,可帮助数据科学家将Python转变为强大的科学分析和建模工具。流行的开源库可以在BSD许可下使用。它是用于在科学计算中执行任务的基础Python库。NumPy是一个更大的基于Python的开源工具生态系统的一部分,称为SciPy。

他的库为Python提供了大量的数据结构,可以毫不费力地执行多维数组和矩阵计算。除了用于求解线性代数方程和其他数学计算外,NumPy还可用作不同类型通用数据的通用多维容器。

此外,它与其他编程语言(如C / C ++和Fortran)完美集成。NumPy库的多功能性使其能够轻松快速地与各种数据库和工具结合使用。

2.Pandas

Pandas是另一个很棒的库,可以增强你的数据科学Python技能。与NumPy一样,它属于SciPy开源软件系列,可在BSD免费软件许可下使用。

Pandas提供多功能和强大的工具,用于整理数据结构和执行大量数据分析。该库适用于不完整,非结构化和无序的实际数据,并附带用于整形,聚合,分析和可视化数据集的工具。

此库中有三种类型的数据结构:

  • Series:单维,均匀阵列
  • DataFrame:具有异构类型列的二维
  • Panel:三维,大小可变阵列

例如,让我们看看Panda Python库(缩写为pd)可用于执行一些描述性统计计算。

让我们从导入库开始。

import pandas pd

让我们创建一个系列词典。

d 'Name':pd.Series'Alfrick''Michael''Wendy''Paul''Dusan''George''Andreas'
 'Irene''Sagar''Simon''James''Rose'
 'Years of Experience':pd.Series
 'Programming Language':pd.Series'Python''JavaScript''PHP''C++''Java''Scala''React''Ruby''Angular''PHP''Python''JavaScript'

让我们创建一个DataFrame。

df pd.DataFramed

下面是一个很好的输出表:

 Name Programming Language Years of Experience
 Alfrick    Python     
 Michael   JavaScript     
 Wendy     PHP     
  Paul     C++     
 Dusan     Java     
 George    Scala     
 Andreas    React     
 Irene     Ruby     
 Sagar    Angular     
 Simon     PHP     
 James    Python     
 Rose   JavaScript     

下面是这个示例的全部代码:

import pandas pd
#creating a dictionary of series
d 'Name':pd.Series'Alfrick''Michael''Wendy''Paul''Dusan''George''Andreas'
 'Irene''Sagar''Simon''James''Rose'
 'Years of Experience':pd.Series
 'Programming Language':pd.Series'Python''JavaScript''PHP''C++''Java''Scala''React''Ruby''Angular''PHP''Python''JavaScript'
#Create a DataFrame
df pd.DataFramed
printdf

3.Matplotlib

Matplotlib也是SciPy核心软件包的一部分,并在BSD许可下提供。它是一个流行的Python科学库,用于生成简单而强大的可视化。你可以使用Python框架进行数据科学生成创意图形,图表,直方图以及其他形状和图形,而无需担心编写多行代码。

例如,让我们看看如何使用Matplotlib库创建一个简单的条形图。

让我们从导入库开始。

matplotlib import pyplot plt

让我们为x轴和y轴生成值。

让我们调用绘制条形图的函数。

plt.xy  

让我们展示一下情节。

plt.  

这是条形图:

3个用于数据科学的顶级Python库

下面是这个示例的全部代码:

#importing Matplotlib Python library 
matplotlib import pyplot plt
#same as import matplotlib.pyplot as plt
#generating values for x-axis 
x 
#generating vaues for y-axis 
y 
#calling function for plotting the bar chart
plt.xy
#showing the plot
plt.

Python编程语言在数据处理和准备方面做得很好,但对于复杂的科学数据分析和建模却不那么重要。用于数据科学的顶级Python框架有助于填补这一空白,允许你执行复杂的数学计算并创建能够理解数据的复杂模型。

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对码农之家的支持。如果你想了解更多相关内容请查看下面相关链接

Python 数据处理库 pandas 入门教程基本操作

pandas是一个Python语言的软件包,在我们使用Python语言进行机器学习编程的时候,这是一个非常常用的基础编程库。本文是对它的一个入门教程。

pandas提供了快速,灵活和富有表现力的数据结构,目的是使“关系”或“标记”数据的工作既简单又直观。它旨在成为在Python中进行实际数据分析的高级构建块。

入门介绍

pandas适合于许多不同类型的数据,包括:

  • 具有异构类型列的表格数据,例如SQL表格或Excel数据
  • 有序和无序(不一定是固定频率)时间序列数据。
  • 具有行列标签的任意矩阵数据(均匀类型或不同类型)
  • 任何其他形式的观测/统计数据集。

由于这是一个Python语言的软件包,因此需要你的机器上首先需要具备Python语言的环境。关于这一点,请自行在网络上搜索获取方法。

关于如何获取pandas请参阅官网上的说明:pandas Installation。

通常情况下,我们可以通过pip来执行安装:

sudo pip3 install pandas

或者通过conda 来安装pandas:

conda install pandas

目前(2018年2月)pandas的最新版本是v0.22.0(发布时间:2017年12月29日)。

我已经将本文的源码和测试数据放到Github上:pandas_tutorial ,读者可以前往获取。

另外,pandas常常和NumPy一起使用,本文中的源码中也会用到NumPy。

建议读者先对NumPy有一定的熟悉再来学习pandas,我之前也写过一个NumPy的基础教程,参见这里:Python 机器学习库 NumPy 教程

核心数据结构

pandas最核心的就是SeriesDataFrame两个数据结构。

这两种类型的数据结构对比如下:

Python 数据处理库 pandas 入门教程基本操作

DataFrame可以看做是Series的容器,即:一个DataFrame中可以包含若干个Series。

注:在0.20.0版本之前,还有一个三维的数据结构,名称为Panel。这也是pandas库取名的原因:pan-da-s。但这种数据结构由于很少被使用到,因此已经被废弃了。

Series

由于Series是一维结构的数据,我们可以直接通过数组来创建这种数据,像这样:

# data_structure.py
import pandas as pd
import numpy as np
series1 = pd.Series([1, 2, 3, 4])
print("series1:\n{}\n".format(series1))

这段代码输出如下:

series1:
0 1
1 2
2 3
3 4
dtype: int64

这段输出说明如下:

  • 输出的最后一行是Series中数据的类型,这里的数据都是int64类型的。
  • 数据在第二列输出,第一列是数据的索引,在pandas中称之为Index。

我们可以分别打印出Series中的数据和索引:

# data_structure.py
print("series1.values: {}\n".format(series1.values))
print("series1.index: {}\n".format(series1.index))

这两行代码输出如下:

series1.values: [1 2 3 4]
series1.index: RangeIndex(start=0, stop=4, step=1)

如果不指定(像上面这样),索引是[1, N-1]的形式。不过我们也可以在创建Series的时候指定索引。索引未必一定需要是整数,可以是任何类型的数据,例如字符串。例如我们以七个字母来映射七个音符。索引的目的是可以通过它来获取对应的数据,例如下面这样:

# data_structure.py
series2 = pd.Series([1, 2, 3, 4, 5, 6, 7],
 index=["C", "D", "E", "F", "G", "A", "B"])
print("series2:\n{}\n".format(series2))
print("E is {}\n".format(series2["E"]))

这段代码输出如下:

series2:
C 1
D 2
E 3
F 4
G 5
A 6
B 7
dtype: int64
E is 3
DataFrame

下面我们来看一下DataFrame的创建。我们可以通过NumPy的接口来创建一个4x4的矩阵,以此来创建一个DataFrame,像这样:

# data_structure.py
df1 = pd.DataFrame(np.arange(16).reshape(4,4))
print("df1:\n{}\n".format(df1))

这段代码输出如下:

df1:
 0 1 2 3
0 0 1 2 3
1 4 5 6 7
2 8 9 10 11
3 12 13 14 15

从这个输出我们可以看到,默认的索引和列名都是[0, N-1]的形式。

我们可以在创建DataFrame的时候指定列名和索引,像这样:

# data_structure.py
df2 = pd.DataFrame(np.arange(16).reshape(4,4),
 columns=["column1", "column2", "column3", "column4"],
 index=["a", "b", "c", "d"])
print("df2:\n{}\n".format(df2))

这段代码输出如下:

df2:
 column1 column2 column3 column4
a 0 1 2 3
b 4 5 6 7
c 8 9 10 11
d 12 13 14 15

我们也可以直接指定列数据来创建DataFrame:

# data_structure.py

df3 = pd.DataFrme({"note" : ["C", "D", "E", "F", "G", "A", "B"],
 "weekday": ["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"]})
print("df3:\n{}\n".format(df3))

这段代码输出如下:

df3:
 note weekday
0 C Mon
1 D Tue
2 E Wed
3 F Thu
4 G Fri
5 A Sat
6 B Sun

请注意:

DataFrame的不同列可以是不同的数据类型

如果以Series数组来创建DataFrame,每个Series将成为一行,而不是一列

例如:

# data_structure.py
noteSeries = pd.Series(["C", "D", "E", "F", "G", "A", "B"],
 index=[1, 2, 3, 4, 5, 6, 7])
weekdaySeries = pd.Series(["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"],
 index=[1, 2, 3, 4, 5, 6, 7])
df4 = pd.DataFrame([noteSeries, weekdaySeries])
print("df4:\n{}\n".format(df4))

df4的输出如下:

df4:
 1 2 3 4 5 6 7
0 C D E F G A B
1 Mon Tue Wed Thu Fri Sat Sun

我们可以通过下面的形式给DataFrame添加或者删除列数据:

# data_structure.py
df3["No."] = pd.Series([1, 2, 3, 4, 5, 6, 7])
print("df3:\n{}\n".format(df3))
del df3["weekday"]
print("df3:\n{}\n".format(df3))

这段代码输出如下:

df3:
 note weekday No.
0 C Mon 1
1 D Tue 2
2 E Wed 3
3 F Thu 4
4 G Fri 5
5 A Sat 6
6 B Sun 7
df3:
 note No.
0 C 1
1 D 2
2 E 3
3 F 4
4 G 5
5 A 6
6 B 7

Index对象与数据访问

pandas的Index对象包含了描述轴的元数据信息。当创建Series或者DataFrame的时候,标签的数组或者序列会被转换成Index。可以通过下面的方式获取到DataFrame的列和行的Index对象:

# data_structure.py
print("df3.columns\n{}\n".format(df3.columns))
print("df3.index\n{}\n".format(df3.index))

这两行代码输出如下:

df3.columns
Index(['note', 'No.'], dtype='object')
df3.index
RangeIndex(start=0, stop=7, step=1)

请注意:

  • Index并非集合,因此其中可以包含重复的数据
  • Index对象的值是不可以改变,因此可以通过它安全的访问数据

DataFrame提供了下面两个操作符来访问其中的数据:

  • loc:通过行和列的索引来访问数据
  • iloc:通过行和列的下标来访问数据

例如这样:

# data_structure.py
print("Note C, D is:\n{}\n".format(df3.loc[[0, 1], "note"]))
print("Note C, D is:\n{}\n".format(df3.iloc[[0, 1], 0]))

第一行代码访问了行索引为0和1,列索引为“note”的元素。第二行代码访问了行下标为0和1(对于df3来说,行索引和行下标刚好是一样的,所以这里都是0和1,但它们却是不同的含义),列下标为0的元素。

这两行代码输出如下:

Note C, D is:
0 C
1 D
Name: note, dtype: object

Note C, D is:
0 C
1 D
Name: note, dtype: object

文件操作

pandas库提供了一系列的read_函数来读取各种格式的文件,它们如下所示:

  • read_csv
  • read_table
  • read_fwf
  • read_clipboard
  • read_excel
  • read_hdf
  • read_html
  • read_json
  • read_msgpack
  • read_pickle
  • read_sas
  • read_sql
  • read_stata
  • read_feather

读取Excel文件

注:要读取Excel文件,还需要安装另外一个库:xlrd

通过pip可以这样完成安装:

sudo pip3 install xlrd

安装完之后可以通过pip查看这个库的信息:

$ pip3 show xlrd
Name: xlrd
Version: 1.1.0
Summary: Library for developers to extract data from Microsoft Excel (tm) spreadsheet files
Home-page: http://www.python-excel.org/
Author: John Machin
Author-email: sjmachin@lexicon.net
License: BSD
Location: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages
Requires: 

接下来我们看一个读取Excel的简单的例子:

# file_operation.py
import pandas as pd
import numpy as np
df1 = pd.read_excel("data/test.xlsx")
print("df1:\n{}\n".format(df1))

这个Excel的内容如下:

df1:
 C Mon
0 D Tue
1 E Wed
2 F Thu
3 G Fri
4 A Sat
5 B Sun

注:本文的代码和数据文件可以通过文章开头提到的Github仓库获取。

读取CSV文件

下面,我们再来看读取CSV文件的例子。

第一个CSV文件内容如下:

$ cat test1.csv 
C,Mon
D,Tue
E,Wed
F,Thu
G,Fri
A,Sat

读取的方式也很简单:

# file_operation.py
df2 = pd.read_csv("data/test1.csv")
print("df2:\n{}\n".format(df2))

我们再来看第2个例子,这个文件的内容如下:

$ cat test2.csv 
C|Mon
D|Tue
E|Wed
F|Thu
G|Fri
A|Sat

严格的来说,这并不是一个CSV文件了,因为它的数据并不是通过逗号分隔的。在这种情况下,我们可以通过指定分隔符的方式来读取这个文件,像这样:

# file_operation.py
df3 = pd.read_csv("data/test2.csv", sep="|")
print("df3:\n{}\n".format(df3))

实际上,read_csv支持非常多的参数用来调整读取的参数,如下表所示:

参数 说明
path 文件路径
sep或者delimiter 字段分隔符
header 列名的行数,默认是0(第一行)
index_col 列号或名称用作结果中的行索引
names 结果的列名称列表
skiprows 从起始位置跳过的行数
na_values 代替NA的值序列
comment 以行结尾分隔注释的字符
parse_dates 尝试将数据解析为datetime。默认为False
keep_date_col 如果将列连接到解析日期,保留连接的列。默认为False
converters 列的转换器
dayfirst 当解析可以造成歧义的日期时,以内部形式存储。默认为False
data_parser 用来解析日期的函数
nrows 从文件开始读取的行数
iterator 返回一个TextParser对象,用于读取部分内容
chunksize 指定读取块的大小
skip_footer 文件末尾需要忽略的行数
verbose 输出各种解析输出的信息
encoding 文件编码
squeeze 如果解析的数据只包含一列,则返回一个Series
thousands 千数量的分隔符

详细的read_csv函数说明请参见这里:pandas.read_csv

处理无效值

现实世界并非完美,我们读取到的数据常常会带有一些无效值。如果没有处理好这些无效值,将对程序造成很大的干扰。

对待无效值,主要有两种处理方法:直接忽略这些无效值;或者将无效值替换成有效值。

下面我先创建一个包含无效值的数据结构。然后通过pandas.isna函数来确认哪些值是无效的:

# process_na.py
import pandas as pd
import numpy as np
df = pd.DataFrame([[1.0, np.nan, 3.0, 4.0],
   [5.0, np.nan, np.nan, 8.0],
   [9.0, np.nan, np.nan, 12.0],
   [13.0, np.nan, 15.0, 16.0]])
print("df:\n{}\n".format(df));
print("df:\n{}\n".format(pd.isna(df)));****

这段代码输出如下:

df:
 0 1 2 3
0 1.0 NaN 3.0 4.0
1 5.0 NaN NaN 8.0
2 9.0 NaN NaN 12.0
3 13.0 NaN 15.0 16.0
df:
 0 1 2 3
0 False True False False
1 False True True False
2 False True True False
3 False True False False

忽略无效值

我们可以通过pandas.DataFrame.dropna函数抛弃无效值:

# process_na.py
print("df.dropna():\n{}\n".format(df.dropna()));

注:dropna默认不会改变原先的数据结构,而是返回了一个新的数据结构。如果想要直接更改数据本身,可以在调用这个函数的时候传递参数 inplace = True。

对于原先的结构,当无效值全部被抛弃之后,将不再是一个有效的DataFrame,因此这行代码输出如下:

df.dropna():
Empty DataFrame
Columns: [0, 1, 2, 3]
Index: []

我们也可以选择抛弃整列都是无效值的那一列:

# process_na.py
print("df.dropna(axis=1, how='all'):\n{}\n".format(df.dropna(axis=1, how='all')));

注:axis=1表示列的轴。how可以取值'any'或者'all',默认是前者。

这行代码输出如下:

df.dropna(axis=1, how='all'):
 0 2 3
0 1.0 3.0 4.0
1 5.0 NaN 8.0
2 9.0 NaN 12.0
3 13.0 15.0 16.0

替换无效值

我们也可以通过fillna函数将无效值替换成为有效值。像这样:

# process_na.py
print("df.fillna(1):\n{}\n".format(df.fillna(1)));

这段代码输出如下:

df.fillna(1):
  0 1  2  3
0 1.0 1.0 3.0 4.0
1 5.0 1.0 1.0 8.0
2 9.0 1.0 1.0 12.0
3 13.0 1.0 15.0 16.0

将无效值全部替换成同样的数据可能意义不大,因此我们可以指定不同的数据来进行填充。为了便于操作,在填充之前,我们可以先通过rename方法修改行和列的名称:

# process_na.py

df.rename(index={0: 'index1', 1: 'index2', 2: 'index3', 3: 'index4'},
   columns={0: 'col1', 1: 'col2', 2: 'col3', 3: 'col4'},
   inplace=True);
df.fillna(value={'col2': 2}, inplace=True)
df.fillna(value={'col3': 7}, inplace=True)
print("df:\n{}\n".format(df));

这段代码输出如下:

df:
  col1 col2 col3 col4
index1 1.0 2.0 3.0 4.0
index2 5.0 2.0 7.0 8.0
index3 9.0 2.0 7.0 12.0
index4 13.0 2.0 15.0 16.0

处理字符串

数据中常常牵涉到字符串的处理,接下来我们就看看pandas对于字符串操作。

Series的str字段包含了一系列的函数用来处理字符串。并且,这些函数会自动处理无效值。

下面是一些实例,在第一组数据中,我们故意设置了一些包含空格字符串:

# process_string.py
import pandas as pd
s1 = pd.Series([' 1', '2 ', ' 3 ', '4', '5']);
print("s1.str.rstrip():\n{}\n".format(s1.str.lstrip()))
print("s1.str.strip():\n{}\n".format(s1.str.strip()))
print("s1.str.isdigit():\n{}\n".format(s1.str.isdigit()))

在这个实例中我们看到了对于字符串strip的处理以及判断字符串本身是否是数字,这段代码输出如下:

s1.str.rstrip():
0  1
1 2 
2 3 
3  4
4  5
dtype: object
s1.str.strip():
0 1
1 2
2 3
3 4
4 5
dtype: object
s1.str.isdigit():
0 False
1 False
2 False
3  True
4  True
dtype: bool


下面是另外一些示例,展示了对于字符串大写,小写以及字符串长度的处理:

# process_string.py
s2 = pd.Series(['Stairway to Heaven', 'Eruption', 'Freebird',
     'Comfortably Numb', 'All Along the Watchtower'])
print("s2.str.lower():\n{}\n".format(s2.str.lower()))
print("s2.str.upper():\n{}\n".format(s2.str.upper()))
print("s2.str.len():\n{}\n".format(s2.str.len()))

该段代码输出如下:

s2.str.lower():
0   stairway to heaven
1     eruption
2     freebird
3   comfortably numb
4 all along the watchtower
dtype: object

s2.str.upper():
0   STAIRWAY TO HEAVEN
1     ERUPTION
2     FREEBIRD
3   COMFORTABLY NUMB
4 ALL ALONG THE WATCHTOWER
dtype: object

s2.str.len():
0 18
1  8
2  8
3 16
4 24
dtype: int64

总结

以上所述是小编给大家介绍的Python 数据处理库 pandas 入门教程基本操作,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对码农之家网站的支持!

以上就是本次给大家分享的关于java的全部知识点内容总结,大家还可以在下方相关文章里找到相关文章进一步学习,感谢大家的阅读和支持。

您可能感兴趣的文章:

  • Python wxPython库Core组件BoxSizer用法总结
  • 7个让代码变得更易维护的Python库总结
  • pip安装Python库时的问题及解决方法总结
  • Python库 相关电子书
    学习笔记
    网友NO.632751

    pip安装Python库时的问题及解决方法总结

    笔者电脑系统是win7,同时安装了Python2.7和Python3.6,但是在通过命令行直接使用pip install XXX安装Python库时出现了以下的错误信息: Fatal error in launcher: Unable to create process using 解决方法: 1,找到你的Python版本对应的解释器的名称 首先你需要进入安装Python相应版本所在的文件夹。以我的Python版本为例,这是我的Python2.7版本对应的解释器名称: 这是我的Python3.6版本对应的解释器的名称: 2,使用解释器名称 -m pip install XXX来安装相应的库 同样以我的Python版本为例, 如果我想安装Python2.7的sklearn库,我需要输入的命令是python2 -m pip install sklearn 如果我想安装Python3.6的sklearn库,我需要输入的命令是python -m pip install sklearn ps:下面介绍下pip安装python库时候出现http异常 问题描述: 用pip安装python机器学习的库时候经常异常结果: 其实,认真读一下英文还是可以得出提……

    网友NO.510750

    Python连接Mssql基础教程之Python库pymssql

    前言 pymssql模块是用于sql server数据库(一种数据库通用接口标准)的连接。另外pyodbc不仅限于SQL server,还包括Oracle,MySQL,Access,Excel等。 另外除了pymssql,pyodbc还有其他几种连接SQL server的模块,感兴趣的可以在这里找到:https://wiki.python.org/moin/SQL%20Server 本文将详细介绍关于Python连接Mssql之Python库pymssql的相关内容,下面话不多说了,来一起看看详细的介绍吧 连接数据库 pymssql连接数据库的方式和使用sqlite的方式基本相同: 使用connect创建连接对象 connect.cursor创建游标对象,SQL语句的执行基本都在游标上进行 cursor.executeXXX方法执行SQL语句,cursor.fetchXXX获取查询结果等 调用close方法关闭游标cursor和数据库连接 import pymssql# server 数据库服务器名称或IP# user 用户名# password 密码# database 数据库名称conn = pymssql.connect(server, user, password, database)cursor = conn.cursor()# 新建、插……

    网友NO.606046

    Python wxPython库消息对话框MessageDialog用法示例

    本文实例讲述了Python wxPython库消息对话框MessageDialog用法。分享给大家供大家参考,具体如下: 消息对话框即我们平时说的Messagebox,看看它的原型,下面是wxWidgets中的原型定义,C++风格,与python风格的区别就是wx前缀与后面名称直接相连,例如wxMessageDialog,在wxpython中使用时就是 wx.MessageDialog wxMessageDialog(wxWindow* parent, const wxString caption = "Message box", long style = wxOK | wxCANCEL, const wxPoint& pos = wxDefaultPosition) 其各参数不多做介绍,主要看看 ShowModal() 方法,它使用应用程序在对话框关闭前不能响应其它窗口的用户事件,返回一个整数,取值如下: wx.ID_YES , wx.ID_NO , wx.ID_CANCEL , wx.ID_OK 。 另外,style的取值主要有以下几种: wxOK Show an OK button. wxCANCEL Show a Cancel button. wxYES_NO Show Yes and No buttons. wxYES_DEFAULT Used with wxYES_NO, makes Yes button the default - which is the default behaviour. w……

    网友NO.326592

    如何不用安装python就能在.NET里调用Python库

    前言 Pythonnet这个屌爆的项目的出现,使得我们可以用一种新的方式,让C#可以和Python之间进行互操作。但是它的设置和部署可能有点问题,真的是这样吗? 本文我会介绍Python.Included这个项目,它不但优雅的解决了这个问题,并且让.NET开发者可以轻松愉快的让.NET与Python进行互操作。作为概念的证明,我将使用Numpy.Net进行展示,它是一个.NET标准库,它为Python的Numpy提供了一个强类型API,并且使用它并不需要在Windows上安装Python。 开发人员从Numpy.NET的强类型API中获益,与动态API不同,后者支持Visual Studio的IntelliSense功能,可以显示原始的Numpy文档。 问题是什么? 每个人可能都安装了不同版本的Python,有一些人用Python 2.7,其他一些人用Python 3.5,3.6甚至3.7。当你使用pythonnet的时候,针对Python的每个小版本,它必须使用不同的配置进行编译,而且该版本的Pyth……

    网友NO.111888

    pip python库安装在哪里了

    Python的pip安装模块 查看Python安装目录: window下命令where python linux下命令whereis python 查看模块的安装列表: 查看pip安装了多少包pip list 查看模块安装路径: 使用pip安装完包后,只需再执行一次命令pip install xx,就会显示安装路径。 如:pip install jupyter安装完成后,再次输入pip install jupyter就会显示此包已经安装的路径了。 由此可知jupyter包安装在了C:\Users\xin\AppData\Local\Programs\Python\Python35\Lib\site-packages下面,进入文件夹查看。 果然在这里。而且发现一个大的秘密:原来所有的通过pip安装的包都在这个目录下。 请记住这个路径:C:\Users\用户\AppData\Local\Programs\Python\Python35\Lib\site-packages 以上就是pip python库安装在哪里了的详细内容,更多请关注码农之家其它相关文章! ……

    <
    1
    >

    Copyright 2018-2020 www.xz577.com 码农之家

    版权投诉 / 书籍推广 / 赞助:520161757@qq.com