forked from pytorch/pytorch
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathTestJit.test_lstm_fusion_cuda.expect
45 lines (45 loc) · 1.75 KB
/
TestJit.test_lstm_fusion_cuda.expect
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
graph(%0 : Float(*, *)
%1 : Float(*, *)
%2 : Float(*, *)
%3 : Float(*, *)
%4 : Float(*, *)
%5 : Float(*)
%6 : Float(*)) {
%7 : int = prim::Constant[value=1]()
%8 : Float(*, *) = aten::t(%3)
%9 : Float(*, *) = aten::mm(%0, %8)
%10 : Float(*, *) = aten::add(%5, %9, %7)
%11 : Float(*, *) = aten::t(%4)
%12 : Float(*, *) = aten::mm(%1, %11)
%13 : Float(*, *) = aten::add(%6, %12, %7)
%14 : Dynamic[] = prim::ListConstruct(%10, %13)
%15 : Dynamic[] = aten::broadcast_tensors(%14)
%16 : Dynamic, %17 : Dynamic = prim::ListUnpack(%15)
%18 : Float(*, *), %19 : Float(*, *) = prim::FusionGroup_0[device=0](%2, %17, %16)
return (%18, %19);
}
with prim::FusionGroup_0 = graph(%0 : Float(*, *)
%1 : Dynamic
%2 : Dynamic) {
%3 : Float(*, *), %4 : Float(*, *), %5 : Float(*, *), %6 : Float(*, *) = prim::ConstantChunk[chunks=4, dim=1](%2)
%7 : Float(*, *), %8 : Float(*, *), %9 : Float(*, *), %10 : Float(*, *) = prim::ConstantChunk[chunks=4, dim=1](%1)
%11 : int = prim::Constant[value=1]()
%12 : Float(*, *) = aten::add(%3, %7, %11)
%13 : int = prim::Constant[value=1]()
%14 : Float(*, *) = aten::add(%4, %8, %13)
%15 : int = prim::Constant[value=1]()
%16 : Float(*, *) = aten::add(%5, %9, %15)
%17 : int = prim::Constant[value=1]()
%18 : Float(*, *) = aten::add(%6, %10, %17)
%19 : Float(*, *) = aten::sigmoid(%12)
%20 : Float(*, *) = aten::sigmoid(%14)
%21 : Float(*, *) = aten::tanh(%16)
%22 : Float(*, *) = aten::sigmoid(%18)
%23 : Float(*, *) = aten::mul(%20, %0)
%24 : Float(*, *) = aten::mul(%19, %21)
%25 : int = prim::Constant[value=1]()
%26 : Float(*, *) = aten::add(%23, %24, %25)
%27 : Float(*, *) = aten::tanh(%26)
%28 : Float(*, *) = aten::mul(%22, %27)
return (%28, %26);
}