python numpy 两个矩阵每个元素求并集,并返回一个与这两个矩阵大小相同的矩阵

python numpy 两个矩阵每个元素求并集,并返回一个与这两个矩阵大小相同的矩阵,第1张

直接两个矩阵相加就可以了

两个矩阵相加即是对应位置的相加,而Python中的True、False值相加时是相当于1和0的,np中加之后又要保持原来的数据类型,所以1+1=2也会变成True

>>> import numpy as np

>>> a = nparray([[True, True], [False, False]])

>>> b = nparray([[True, False], [True, False]])

>>> a

array([[ True,  True],

       [False, False]], dtype=bool)

>>> b

array([[ True, False],

       [ True, False]], dtype=bool)

>>> a + b

array([[ True,  True],

       [ True, False]], dtype=bool)>>> True + False

1

>>> True + True

2

>>> False + False

0

>>> bool(1)

True

>>> bool(2)

True

>>> bool(0)

False

回顾:

NumPy 是一个用于科学计算的基础 Python 库( 安装说明 )。它可以让你在 Python 中使用向量和数学矩阵,以及许多用 C 语言实现的底层函数。

在 Notebook 中导入 NumPy:

数组是将数据组织成若干个维度的数据块。

NumPy 的核心是数组(arrays)。

用 array 创建数组

在 NumPy 数组中,数据类型需要一致,否则,会尝试「向上兼容」,比如生成一个包含浮点数的数组,输出时每个元素都变成了浮点型:

NumPy 还可以用循环生成数组:

用 full 生成一个 3 行 5 列的数组:

用 arange 等距填充数组:

(arange 是 Python 内置函数 range 的数组版,返回的是一个 ndarray 而不是 list)

用 linspace 线性填充数组:

用 random 生成随机数组:

btw 数组索引从 0 开始

NumPy 中的切片语法: x[start:stop:step] ,如果没有赋值,默认值 start=0, stop=size of dimension, step=1。

(上图最后一个图形,arr[1, :2] 应该是 (1,2) 一行二列矩阵??)

复制数组切片

reshape:

转置(transpose)是重塑(reshape)的一种特殊形式,返回源数据的视图而不进行复制。

用 concatenate 连接数组:

用 vstack 合并到数据行, hstack 合并到数据列

拆分数组的函数包括: npsplit , nphsplit, npvsplit

传递给数组一个与它有关的条件式,然后它就会返回给定条件下为真的值。

在生成图形时也非常好用:

在程序中用条件式选择了图中不同的点。蓝色的点(也包含图中的绿点,只是绿点覆盖了蓝点),显示的是值大于零的点。绿点显示的是值大于 0 小于 Pi / 2 的点。

当不同 shape 的数组进行运算(按位加/按位减的运算,而不是矩阵乘法的运算)时,(某个维度上)小的数组就会沿着(同一维度上)大的数组自动填充。广播虽然是一个不错的偷懒办法,但是效率不高、降低运算速度通常也为人诟病。

广播的原理(via Broadcast Visualization ):

numpy是我学习python遇到的第一个第三方工具包,它可以让我们快速上手数据分析。numpy提供了向量和矩阵计算和处理的大部分接口。目前很多python的基础工具包都是基于numpy开发而来,比如 scikit-learn, SciPy, pandas, 还有 tensorflow。 numpy可以处理表格、图像、文本等数据,极大地方便我们处理和分析数据。本文主要内容来自于Jay Alammar的一篇文章以及自己学习记录。

原文地址: >

以上就是关于python numpy 两个矩阵每个元素求并集,并返回一个与这两个矩阵大小相同的矩阵全部的内容,包括:python numpy 两个矩阵每个元素求并集,并返回一个与这两个矩阵大小相同的矩阵、菜鸟数据科学入门03 - NumPy 数组基础和基本 *** 作、图解Python中数据分析工具包:Numpy等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/web/9420207.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-28
下一篇 2023-04-28

发表评论

登录后才能评论

评论列表(0条)

保存