卧槽我看了一下难道 faceswap 本来就是 64x64.....上 32x32 ?糊成头像( ̄▽ ̄)
1920x1080 是不行的,你试试 64x36 ,缩小 G 和 D 的 filter 个数,把 64 ,128 ,256 ,512 换成 8 ,16 ,32 ,64 ,训练起来就快多啦~无非是糊得抽象些,加油~
x+ x = xTx/xTx = 1 这是直接构造出来的,不太理解你想证明啥
casio 海神系列。casio oceanus s4000 ~ s5000 系列,而且实用。
信号如果抖动不大或者考虑 STFT 以后当图处理……就硬上机器学习
你这是开始学代数了么,还是哪本线代里的一段?你仔细读读这两段话,上下没关系啊?规定 1+1=0 的域是他的例子{0,1},其他任何域都不一定。
但凡认真看本线代……
PCA 的***定义***不就是找到一个酉矩阵 U 使得去中心样本(x-xmean)的协方差对角化么:U^T (x-xmean)(x-xmean)^T U = D? 你算变换后的坐标 y=U^T x 的协方差 (y-ymean)(y-ymean)^T 当然是对角矩阵 D 了。
@
huzhikuizainali 我是没看到原文,如果是时序,那就是 autoregressive model ,具体相关概念看看 autocorrelation 之类的理解一下
不会是时序的自回归吧,Autoregressive?
for f in sorted(files, key=lambda x: int(x.replace('_log.txt', ''))):
In[2]:= Fibonacci[9292]
Out[3]= 36615772462226778497854272068347456903203535721576563305001882\
4446808971505522682252557462388869487429215147859670048443557030510924\
2313638033416669900444112247937728056211966758992460916419400444853615\
0659995426159958705401822049236361283380030364021954972693189793054990\
6755541787721845184132515014730718340789844257461094023669363764925901\
6140512151236060436731993551961323374694640088413329540217958532844994\
6021273729864624801649860858997392396829447879954242712774677453828896\
1654341048857935441878207228426883065999292881549658263447447546725460\
1183355700504643184963095650659016150303753725509080657414720402415839\
2279674457694234096817291978625827299718248723889062148394904123612383\
8755719810784487707901717432096035328612595568604179756660091008942882\
4579522915583067121845203670580431109038026031805366693865811657549114\
6451800292235506843706203859421399525135962129895729017175669910289503\
9164133931355135824951376885398355592136531493074426906052845318085318\
1277008706114560211720676164926069583198482669740034992505014190676786\
1826193562982886149731745127900366793891334956005215747258441299727424\
3067473691667279262508464102799073324973945932644031301367264984825431\
5756846997118764723139178365862765173488978551301801196364660097159749\
2165058128156102400945704343883305010014902608294939820797741099763137\
9586795329323235044514114098601714461528505657129718977557957794347601\
7486485426114739433921822640390808840316534298381708300360202292556716\
2756960501161791462185991020606417837285106207003686110205223085088050\
6635426798303144743970873843083081229936959093803928806387360717509525\
3952963248468206808754647017090147700831859035388796576278194027465866\
1016159406917289941299321202063907398141415112260498823238868612459402\
5244669760768036285301069483216818980323500251537269509976571417468577\
6789816323408545017065365758342146429980816094007713959447619038393467\
627366903822647919125618219011528539949951357869642550538579
-_-能调接口吗? Wolfram engine 永远滴神!(手动狗头
1. 按行排列,用 argsort 以第一行排的话 a[:, np.argsort(a[0])]
2. 按列排行,用 argsort 以第二列排的话 a[np.argsort(a.T[1]),:]
3. 逆序排序好像挺反人类的,arr[::-1].sort() 会原位逆序排序(即 id(arr) 和先 arr[::-1].sort()再 id(arr) 会一样)。但如果用 argsort,得 np.argsort(a[0])[::-1]
1. 说分枝都属微分几何吧。
2. 我做分子模拟的。用英语搜问题。很多专有名词不像汉语需要翻译时创造,而是在英语中自然而然的,毕竟近现代学科发展通用英语。你试试谷歌一下 derivative of vectors ,然后优先看带 edu 域名的结果,或者 math stack exchange ,或者 wikipedia ,一般就够了。
你这是两串数的关联性,看程序应该是 Pearson 相关系数,样本是 1 维样本,和向量有啥关系?
不是要么下要么不下,而是要么下 50 年大雨要么不下 50 年的大雨
1/50 1/50 是如果按照一年就下一场雨,要么下要么不下,就是扔一个超有偏硬币 1:49 ,扔两次,连续扔出两个正面的概率
用柏松分布的意思是,接下来的两年(单位时间内)会发生很多雨,但是其中有种大雨( 50 年一遇,或者 1 年 1/50 遇,或者 2 年 1/25 遇)在单位时间(两年内)发生 2 次的概率
至于对向量求导,也是基本定义,一个标量场(输入向量,输出数字)的函数,f(x) = y ,x=(x1, x2...),则 f'(x)定义为向量
(f(x1,x2,...)'x1, f(x1,x2...)'x2, f'x3, f'x4....)
如果
f(x)是一个向量场 f(x1,x2,...) = (y1,y2,...)
则 f'x 是一个二阶矩阵
y1'x1 y1'x2,...
y2'x1, y2'x2...
也就是对向量求导需要对每一项求导,所以 xTA x 对 x 求导就是一个标量场对向量求导,需要对 x 每一项分别求导,所以需要引入新的下标 k ,(xi Aij xj)'(xk)
这些属于向量微积分,张量代数的基础知识,如果你不想完整学这些,就熟悉一下 einstein summation ,kronecker delta 然后逐项手写,实在不行就写个二阶矩阵然后逐项写,熟悉一下这方面就没问题了,学完数学是 overkill 的
先熟悉 einstein summation notation 和 Kronecker delta ,写开一项一项求,然后合并就行了,举个例子:
矩阵乘法:A=Aij, x=xi
xT A = xi Aij = Aij xi
A x = Aij xj = xj Aij
AT x= Aji xj = xj Aji
比如 xTAx = xi Aij xj 对 xk 求导,根据乘法求导法则 ( f(x)g(x)' = f'g+fg') 等于 xi'(xk) Aij xj + xi Aij xj'(xk),因为 xi'(xk) = delta_ik ,同理 xj'(xk)=delta_jk ,所以 delta_ik Aij xj + xi Aij delta_jk = Akj xj + xi Aik ,对加和标的选择是任意的(加和可以任意换序),所以 Akj xj = Aki xi ,所以原式=Aki xi + xi Aik = (Aik+Aki)xi = (A+AT)x ,如果再不能理解就写个 2 阶矩阵 a11 a12 a21 a22 和向量 x1 x2 ,自己试试