aboutsummaryrefslogtreecommitdiff
path: root/src/cmd/compile/internal/ssa/rewriteMIPS64.go
diff options
context:
space:
mode:
authorMichael Munday <mike.munday@ibm.com>2019-03-13 10:32:48 +0000
committerMichael Munday <mike.munday@ibm.com>2019-03-13 15:11:37 +0000
commit04f1b65cc6ffbaa3693bbcb57ae26fb59466531b (patch)
tree08789a47f4032d5bb2ad8e5d2b0da8ea544bc356 /src/cmd/compile/internal/ssa/rewriteMIPS64.go
parent5d4fa147c70b5ec2dfa812220c1ddc135e3b5381 (diff)
downloadgo-04f1b65cc6ffbaa3693bbcb57ae26fb59466531b.tar.gz
go-04f1b65cc6ffbaa3693bbcb57ae26fb59466531b.zip
cmd/compile: try and access last argument first in rulegen
This reduces the number of extra bounds check hints we need to insert. For example, rather than producing: _ = v.Args[2] x := v.Args[0] y := v.Args[1] z := v.Args[2] We now produce: z := v.Args[2] x := v.Args[0] y := v.Args[1] This gets rid of about 7000 lines of code from the rewrite rules. Change-Id: I1291cf0f82e8d035a6d65bce7dee6cedee04cbcd Reviewed-on: https://go-review.googlesource.com/c/go/+/167397 Reviewed-by: Daniel Martí <mvdan@mvdan.cc> Reviewed-by: Cherry Zhang <cherryyz@google.com> Run-TryBot: Cherry Zhang <cherryyz@google.com> TryBot-Result: Gobot Gobot <gobot@golang.org>
Diffstat (limited to 'src/cmd/compile/internal/ssa/rewriteMIPS64.go')
-rw-r--r--src/cmd/compile/internal/ssa/rewriteMIPS64.go919
1 files changed, 307 insertions, 612 deletions
diff --git a/src/cmd/compile/internal/ssa/rewriteMIPS64.go b/src/cmd/compile/internal/ssa/rewriteMIPS64.go
index c56f82f696..4d1d817033 100644
--- a/src/cmd/compile/internal/ssa/rewriteMIPS64.go
+++ b/src/cmd/compile/internal/ssa/rewriteMIPS64.go
@@ -619,9 +619,8 @@ func rewriteValueMIPS64_OpAdd16_0(v *Value) bool {
// cond:
// result: (ADDV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDV)
v.AddArg(x)
v.AddArg(y)
@@ -633,9 +632,8 @@ func rewriteValueMIPS64_OpAdd32_0(v *Value) bool {
// cond:
// result: (ADDV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDV)
v.AddArg(x)
v.AddArg(y)
@@ -647,9 +645,8 @@ func rewriteValueMIPS64_OpAdd32F_0(v *Value) bool {
// cond:
// result: (ADDF x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDF)
v.AddArg(x)
v.AddArg(y)
@@ -661,9 +658,8 @@ func rewriteValueMIPS64_OpAdd64_0(v *Value) bool {
// cond:
// result: (ADDV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDV)
v.AddArg(x)
v.AddArg(y)
@@ -675,9 +671,8 @@ func rewriteValueMIPS64_OpAdd64F_0(v *Value) bool {
// cond:
// result: (ADDD x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDD)
v.AddArg(x)
v.AddArg(y)
@@ -689,9 +684,8 @@ func rewriteValueMIPS64_OpAdd8_0(v *Value) bool {
// cond:
// result: (ADDV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDV)
v.AddArg(x)
v.AddArg(y)
@@ -703,9 +697,8 @@ func rewriteValueMIPS64_OpAddPtr_0(v *Value) bool {
// cond:
// result: (ADDV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDV)
v.AddArg(x)
v.AddArg(y)
@@ -730,9 +723,8 @@ func rewriteValueMIPS64_OpAnd16_0(v *Value) bool {
// cond:
// result: (AND x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v.AddArg(x)
v.AddArg(y)
@@ -744,9 +736,8 @@ func rewriteValueMIPS64_OpAnd32_0(v *Value) bool {
// cond:
// result: (AND x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v.AddArg(x)
v.AddArg(y)
@@ -758,9 +749,8 @@ func rewriteValueMIPS64_OpAnd64_0(v *Value) bool {
// cond:
// result: (AND x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v.AddArg(x)
v.AddArg(y)
@@ -772,9 +762,8 @@ func rewriteValueMIPS64_OpAnd8_0(v *Value) bool {
// cond:
// result: (AND x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v.AddArg(x)
v.AddArg(y)
@@ -786,9 +775,8 @@ func rewriteValueMIPS64_OpAndB_0(v *Value) bool {
// cond:
// result: (AND x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v.AddArg(x)
v.AddArg(y)
@@ -800,10 +788,9 @@ func rewriteValueMIPS64_OpAtomicAdd32_0(v *Value) bool {
// cond:
// result: (LoweredAtomicAdd32 ptr val mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicAdd32)
v.AddArg(ptr)
v.AddArg(val)
@@ -816,10 +803,9 @@ func rewriteValueMIPS64_OpAtomicAdd64_0(v *Value) bool {
// cond:
// result: (LoweredAtomicAdd64 ptr val mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicAdd64)
v.AddArg(ptr)
v.AddArg(val)
@@ -832,11 +818,10 @@ func rewriteValueMIPS64_OpAtomicCompareAndSwap32_0(v *Value) bool {
// cond:
// result: (LoweredAtomicCas32 ptr old new_ mem)
for {
- _ = v.Args[3]
+ mem := v.Args[3]
ptr := v.Args[0]
old := v.Args[1]
new_ := v.Args[2]
- mem := v.Args[3]
v.reset(OpMIPS64LoweredAtomicCas32)
v.AddArg(ptr)
v.AddArg(old)
@@ -850,11 +835,10 @@ func rewriteValueMIPS64_OpAtomicCompareAndSwap64_0(v *Value) bool {
// cond:
// result: (LoweredAtomicCas64 ptr old new_ mem)
for {
- _ = v.Args[3]
+ mem := v.Args[3]
ptr := v.Args[0]
old := v.Args[1]
new_ := v.Args[2]
- mem := v.Args[3]
v.reset(OpMIPS64LoweredAtomicCas64)
v.AddArg(ptr)
v.AddArg(old)
@@ -868,10 +852,9 @@ func rewriteValueMIPS64_OpAtomicExchange32_0(v *Value) bool {
// cond:
// result: (LoweredAtomicExchange32 ptr val mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicExchange32)
v.AddArg(ptr)
v.AddArg(val)
@@ -884,10 +867,9 @@ func rewriteValueMIPS64_OpAtomicExchange64_0(v *Value) bool {
// cond:
// result: (LoweredAtomicExchange64 ptr val mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicExchange64)
v.AddArg(ptr)
v.AddArg(val)
@@ -900,9 +882,8 @@ func rewriteValueMIPS64_OpAtomicLoad32_0(v *Value) bool {
// cond:
// result: (LoweredAtomicLoad32 ptr mem)
for {
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64LoweredAtomicLoad32)
v.AddArg(ptr)
v.AddArg(mem)
@@ -914,9 +895,8 @@ func rewriteValueMIPS64_OpAtomicLoad64_0(v *Value) bool {
// cond:
// result: (LoweredAtomicLoad64 ptr mem)
for {
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64LoweredAtomicLoad64)
v.AddArg(ptr)
v.AddArg(mem)
@@ -928,9 +908,8 @@ func rewriteValueMIPS64_OpAtomicLoadPtr_0(v *Value) bool {
// cond:
// result: (LoweredAtomicLoad64 ptr mem)
for {
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64LoweredAtomicLoad64)
v.AddArg(ptr)
v.AddArg(mem)
@@ -942,10 +921,9 @@ func rewriteValueMIPS64_OpAtomicStore32_0(v *Value) bool {
// cond:
// result: (LoweredAtomicStore32 ptr val mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicStore32)
v.AddArg(ptr)
v.AddArg(val)
@@ -958,10 +936,9 @@ func rewriteValueMIPS64_OpAtomicStore64_0(v *Value) bool {
// cond:
// result: (LoweredAtomicStore64 ptr val mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicStore64)
v.AddArg(ptr)
v.AddArg(val)
@@ -974,10 +951,9 @@ func rewriteValueMIPS64_OpAtomicStorePtrNoWB_0(v *Value) bool {
// cond:
// result: (LoweredAtomicStore64 ptr val mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicStore64)
v.AddArg(ptr)
v.AddArg(val)
@@ -992,9 +968,8 @@ func rewriteValueMIPS64_OpAvg64u_0(v *Value) bool {
// result: (ADDV (SRLVconst <t> (SUBV <t> x y) [1]) y)
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64ADDV)
v0 := b.NewValue0(v.Pos, OpMIPS64SRLVconst, t)
v0.AuxInt = 1
@@ -1013,10 +988,9 @@ func rewriteValueMIPS64_OpClosureCall_0(v *Value) bool {
// result: (CALLclosure [argwid] entry closure mem)
for {
argwid := v.AuxInt
- _ = v.Args[2]
+ mem := v.Args[2]
entry := v.Args[0]
closure := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64CALLclosure)
v.AuxInt = argwid
v.AddArg(entry)
@@ -1293,9 +1267,8 @@ func rewriteValueMIPS64_OpDiv16_0(v *Value) bool {
// cond:
// result: (Select1 (DIVV (SignExt16to64 x) (SignExt16to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v1 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
@@ -1315,9 +1288,8 @@ func rewriteValueMIPS64_OpDiv16u_0(v *Value) bool {
// cond:
// result: (Select1 (DIVVU (ZeroExt16to64 x) (ZeroExt16to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v1 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64)
@@ -1337,9 +1309,8 @@ func rewriteValueMIPS64_OpDiv32_0(v *Value) bool {
// cond:
// result: (Select1 (DIVV (SignExt32to64 x) (SignExt32to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v1 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
@@ -1357,9 +1328,8 @@ func rewriteValueMIPS64_OpDiv32F_0(v *Value) bool {
// cond:
// result: (DIVF x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64DIVF)
v.AddArg(x)
v.AddArg(y)
@@ -1373,9 +1343,8 @@ func rewriteValueMIPS64_OpDiv32u_0(v *Value) bool {
// cond:
// result: (Select1 (DIVVU (ZeroExt32to64 x) (ZeroExt32to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v1 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64)
@@ -1395,9 +1364,8 @@ func rewriteValueMIPS64_OpDiv64_0(v *Value) bool {
// cond:
// result: (Select1 (DIVV x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v0.AddArg(x)
@@ -1411,9 +1379,8 @@ func rewriteValueMIPS64_OpDiv64F_0(v *Value) bool {
// cond:
// result: (DIVD x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64DIVD)
v.AddArg(x)
v.AddArg(y)
@@ -1427,9 +1394,8 @@ func rewriteValueMIPS64_OpDiv64u_0(v *Value) bool {
// cond:
// result: (Select1 (DIVVU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v0.AddArg(x)
@@ -1445,9 +1411,8 @@ func rewriteValueMIPS64_OpDiv8_0(v *Value) bool {
// cond:
// result: (Select1 (DIVV (SignExt8to64 x) (SignExt8to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v1 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
@@ -1467,9 +1432,8 @@ func rewriteValueMIPS64_OpDiv8u_0(v *Value) bool {
// cond:
// result: (Select1 (DIVVU (ZeroExt8to64 x) (ZeroExt8to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v1 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64)
@@ -1489,9 +1453,8 @@ func rewriteValueMIPS64_OpEq16_0(v *Value) bool {
// cond:
// result: (SGTU (MOVVconst [1]) (XOR (ZeroExt16to64 x) (ZeroExt16to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1514,9 +1477,8 @@ func rewriteValueMIPS64_OpEq32_0(v *Value) bool {
// cond:
// result: (SGTU (MOVVconst [1]) (XOR (ZeroExt32to64 x) (ZeroExt32to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1538,9 +1500,8 @@ func rewriteValueMIPS64_OpEq32F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPEQF x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQF, types.TypeFlags)
v0.AddArg(x)
@@ -1556,9 +1517,8 @@ func rewriteValueMIPS64_OpEq64_0(v *Value) bool {
// cond:
// result: (SGTU (MOVVconst [1]) (XOR x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1576,9 +1536,8 @@ func rewriteValueMIPS64_OpEq64F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPEQD x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQD, types.TypeFlags)
v0.AddArg(x)
@@ -1594,9 +1553,8 @@ func rewriteValueMIPS64_OpEq8_0(v *Value) bool {
// cond:
// result: (SGTU (MOVVconst [1]) (XOR (ZeroExt8to64 x) (ZeroExt8to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1619,9 +1577,8 @@ func rewriteValueMIPS64_OpEqB_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (XOR <typ.Bool> x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1640,9 +1597,8 @@ func rewriteValueMIPS64_OpEqPtr_0(v *Value) bool {
// cond:
// result: (SGTU (MOVVconst [1]) (XOR x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1661,9 +1617,8 @@ func rewriteValueMIPS64_OpGeq16_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT (SignExt16to64 y) (SignExt16to64 x)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1686,9 +1641,8 @@ func rewriteValueMIPS64_OpGeq16U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU (ZeroExt16to64 y) (ZeroExt16to64 x)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1711,9 +1665,8 @@ func rewriteValueMIPS64_OpGeq32_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT (SignExt32to64 y) (SignExt32to64 x)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1735,9 +1688,8 @@ func rewriteValueMIPS64_OpGeq32F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGEF x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGEF, types.TypeFlags)
v0.AddArg(x)
@@ -1753,9 +1705,8 @@ func rewriteValueMIPS64_OpGeq32U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU (ZeroExt32to64 y) (ZeroExt32to64 x)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1778,9 +1729,8 @@ func rewriteValueMIPS64_OpGeq64_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT y x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1798,9 +1748,8 @@ func rewriteValueMIPS64_OpGeq64F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGED x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGED, types.TypeFlags)
v0.AddArg(x)
@@ -1816,9 +1765,8 @@ func rewriteValueMIPS64_OpGeq64U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU y x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1837,9 +1785,8 @@ func rewriteValueMIPS64_OpGeq8_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT (SignExt8to64 y) (SignExt8to64 x)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1862,9 +1809,8 @@ func rewriteValueMIPS64_OpGeq8U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU (ZeroExt8to64 y) (ZeroExt8to64 x)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -1914,9 +1860,8 @@ func rewriteValueMIPS64_OpGreater16_0(v *Value) bool {
// cond:
// result: (SGT (SignExt16to64 x) (SignExt16to64 y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
v0.AddArg(x)
@@ -1934,9 +1879,8 @@ func rewriteValueMIPS64_OpGreater16U_0(v *Value) bool {
// cond:
// result: (SGTU (ZeroExt16to64 x) (ZeroExt16to64 y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64)
v0.AddArg(x)
@@ -1954,9 +1898,8 @@ func rewriteValueMIPS64_OpGreater32_0(v *Value) bool {
// cond:
// result: (SGT (SignExt32to64 x) (SignExt32to64 y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
v0.AddArg(x)
@@ -1973,9 +1916,8 @@ func rewriteValueMIPS64_OpGreater32F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGTF x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTF, types.TypeFlags)
v0.AddArg(x)
@@ -1991,9 +1933,8 @@ func rewriteValueMIPS64_OpGreater32U_0(v *Value) bool {
// cond:
// result: (SGTU (ZeroExt32to64 x) (ZeroExt32to64 y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64)
v0.AddArg(x)
@@ -2009,9 +1950,8 @@ func rewriteValueMIPS64_OpGreater64_0(v *Value) bool {
// cond:
// result: (SGT x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v.AddArg(x)
v.AddArg(y)
@@ -2024,9 +1964,8 @@ func rewriteValueMIPS64_OpGreater64F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGTD x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTD, types.TypeFlags)
v0.AddArg(x)
@@ -2040,9 +1979,8 @@ func rewriteValueMIPS64_OpGreater64U_0(v *Value) bool {
// cond:
// result: (SGTU x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v.AddArg(x)
v.AddArg(y)
@@ -2056,9 +1994,8 @@ func rewriteValueMIPS64_OpGreater8_0(v *Value) bool {
// cond:
// result: (SGT (SignExt8to64 x) (SignExt8to64 y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
v0.AddArg(x)
@@ -2076,9 +2013,8 @@ func rewriteValueMIPS64_OpGreater8U_0(v *Value) bool {
// cond:
// result: (SGTU (ZeroExt8to64 x) (ZeroExt8to64 y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64)
v0.AddArg(x)
@@ -2096,9 +2032,8 @@ func rewriteValueMIPS64_OpHmul32_0(v *Value) bool {
// cond:
// result: (SRAVconst (Select1 <typ.Int64> (MULV (SignExt32to64 x) (SignExt32to64 y))) [32])
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAVconst)
v.AuxInt = 32
v0 := b.NewValue0(v.Pos, OpSelect1, typ.Int64)
@@ -2121,9 +2056,8 @@ func rewriteValueMIPS64_OpHmul32u_0(v *Value) bool {
// cond:
// result: (SRLVconst (Select1 <typ.UInt64> (MULVU (ZeroExt32to64 x) (ZeroExt32to64 y))) [32])
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRLVconst)
v.AuxInt = 32
v0 := b.NewValue0(v.Pos, OpSelect1, typ.UInt64)
@@ -2146,9 +2080,8 @@ func rewriteValueMIPS64_OpHmul64_0(v *Value) bool {
// cond:
// result: (Select0 (MULV x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64MULV, types.NewTuple(typ.Int64, typ.Int64))
v0.AddArg(x)
@@ -2164,9 +2097,8 @@ func rewriteValueMIPS64_OpHmul64u_0(v *Value) bool {
// cond:
// result: (Select0 (MULVU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64))
v0.AddArg(x)
@@ -2181,9 +2113,8 @@ func rewriteValueMIPS64_OpInterCall_0(v *Value) bool {
// result: (CALLinter [argwid] entry mem)
for {
argwid := v.AuxInt
- _ = v.Args[1]
- entry := v.Args[0]
mem := v.Args[1]
+ entry := v.Args[0]
v.reset(OpMIPS64CALLinter)
v.AuxInt = argwid
v.AddArg(entry)
@@ -2196,9 +2127,8 @@ func rewriteValueMIPS64_OpIsInBounds_0(v *Value) bool {
// cond:
// result: (SGTU len idx)
for {
- _ = v.Args[1]
- idx := v.Args[0]
len := v.Args[1]
+ idx := v.Args[0]
v.reset(OpMIPS64SGTU)
v.AddArg(len)
v.AddArg(idx)
@@ -2228,9 +2158,8 @@ func rewriteValueMIPS64_OpIsSliceInBounds_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU idx len))
for {
- _ = v.Args[1]
- idx := v.Args[0]
len := v.Args[1]
+ idx := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2249,9 +2178,8 @@ func rewriteValueMIPS64_OpLeq16_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT (SignExt16to64 x) (SignExt16to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2274,9 +2202,8 @@ func rewriteValueMIPS64_OpLeq16U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU (ZeroExt16to64 x) (ZeroExt16to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2299,9 +2226,8 @@ func rewriteValueMIPS64_OpLeq32_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT (SignExt32to64 x) (SignExt32to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2323,9 +2249,8 @@ func rewriteValueMIPS64_OpLeq32F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGEF y x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGEF, types.TypeFlags)
v0.AddArg(y)
@@ -2341,9 +2266,8 @@ func rewriteValueMIPS64_OpLeq32U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU (ZeroExt32to64 x) (ZeroExt32to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2366,9 +2290,8 @@ func rewriteValueMIPS64_OpLeq64_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2386,9 +2309,8 @@ func rewriteValueMIPS64_OpLeq64F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGED y x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGED, types.TypeFlags)
v0.AddArg(y)
@@ -2404,9 +2326,8 @@ func rewriteValueMIPS64_OpLeq64U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2425,9 +2346,8 @@ func rewriteValueMIPS64_OpLeq8_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGT (SignExt8to64 x) (SignExt8to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2450,9 +2370,8 @@ func rewriteValueMIPS64_OpLeq8U_0(v *Value) bool {
// cond:
// result: (XOR (MOVVconst [1]) (SGTU (ZeroExt8to64 x) (ZeroExt8to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
v0.AuxInt = 1
@@ -2475,9 +2394,8 @@ func rewriteValueMIPS64_OpLess16_0(v *Value) bool {
// cond:
// result: (SGT (SignExt16to64 y) (SignExt16to64 x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
v0.AddArg(y)
@@ -2495,9 +2413,8 @@ func rewriteValueMIPS64_OpLess16U_0(v *Value) bool {
// cond:
// result: (SGTU (ZeroExt16to64 y) (ZeroExt16to64 x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64)
v0.AddArg(y)
@@ -2515,9 +2432,8 @@ func rewriteValueMIPS64_OpLess32_0(v *Value) bool {
// cond:
// result: (SGT (SignExt32to64 y) (SignExt32to64 x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
v0.AddArg(y)
@@ -2534,9 +2450,8 @@ func rewriteValueMIPS64_OpLess32F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGTF y x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTF, types.TypeFlags)
v0.AddArg(y)
@@ -2552,9 +2467,8 @@ func rewriteValueMIPS64_OpLess32U_0(v *Value) bool {
// cond:
// result: (SGTU (ZeroExt32to64 y) (ZeroExt32to64 x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64)
v0.AddArg(y)
@@ -2570,9 +2484,8 @@ func rewriteValueMIPS64_OpLess64_0(v *Value) bool {
// cond:
// result: (SGT y x)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v.AddArg(y)
v.AddArg(x)
@@ -2585,9 +2498,8 @@ func rewriteValueMIPS64_OpLess64F_0(v *Value) bool {
// cond:
// result: (FPFlagTrue (CMPGTD y x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagTrue)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPGTD, types.TypeFlags)
v0.AddArg(y)
@@ -2601,9 +2513,8 @@ func rewriteValueMIPS64_OpLess64U_0(v *Value) bool {
// cond:
// result: (SGTU y x)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v.AddArg(y)
v.AddArg(x)
@@ -2617,9 +2528,8 @@ func rewriteValueMIPS64_OpLess8_0(v *Value) bool {
// cond:
// result: (SGT (SignExt8to64 y) (SignExt8to64 x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGT)
v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
v0.AddArg(y)
@@ -2637,9 +2547,8 @@ func rewriteValueMIPS64_OpLess8U_0(v *Value) bool {
// cond:
// result: (SGTU (ZeroExt8to64 y) (ZeroExt8to64 x))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64)
v0.AddArg(y)
@@ -2656,9 +2565,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVBUload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.IsBoolean()) {
break
}
@@ -2672,9 +2580,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVBload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is8BitInt(t) && isSigned(t)) {
break
}
@@ -2688,9 +2595,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVBUload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is8BitInt(t) && !isSigned(t)) {
break
}
@@ -2704,9 +2610,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVHload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is16BitInt(t) && isSigned(t)) {
break
}
@@ -2720,9 +2625,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVHUload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is16BitInt(t) && !isSigned(t)) {
break
}
@@ -2736,9 +2640,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVWload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is32BitInt(t) && isSigned(t)) {
break
}
@@ -2752,9 +2655,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVWUload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is32BitInt(t) && !isSigned(t)) {
break
}
@@ -2768,9 +2670,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVVload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is64BitInt(t) || isPtr(t)) {
break
}
@@ -2784,9 +2685,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVFload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is32BitFloat(t)) {
break
}
@@ -2800,9 +2700,8 @@ func rewriteValueMIPS64_OpLoad_0(v *Value) bool {
// result: (MOVDload ptr mem)
for {
t := v.Type
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(is64BitFloat(t)) {
break
}
@@ -2835,9 +2734,8 @@ func rewriteValueMIPS64_OpLsh16x16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -2866,9 +2764,8 @@ func rewriteValueMIPS64_OpLsh16x32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -2897,9 +2794,8 @@ func rewriteValueMIPS64_OpLsh16x64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -2924,9 +2820,8 @@ func rewriteValueMIPS64_OpLsh16x8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -2955,9 +2850,8 @@ func rewriteValueMIPS64_OpLsh32x16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -2986,9 +2880,8 @@ func rewriteValueMIPS64_OpLsh32x32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3017,9 +2910,8 @@ func rewriteValueMIPS64_OpLsh32x64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3044,9 +2936,8 @@ func rewriteValueMIPS64_OpLsh32x8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3075,9 +2966,8 @@ func rewriteValueMIPS64_OpLsh64x16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3106,9 +2996,8 @@ func rewriteValueMIPS64_OpLsh64x32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3137,9 +3026,8 @@ func rewriteValueMIPS64_OpLsh64x64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3164,9 +3052,8 @@ func rewriteValueMIPS64_OpLsh64x8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3195,9 +3082,8 @@ func rewriteValueMIPS64_OpLsh8x16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SLLV <t> x (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3226,9 +3112,8 @@ func rewriteValueMIPS64_OpLsh8x32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SLLV <t> x (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3257,9 +3142,8 @@ func rewriteValueMIPS64_OpLsh8x64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SLLV <t> x y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3284,9 +3168,8 @@ func rewriteValueMIPS64_OpLsh8x8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SLLV <t> x (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -3331,13 +3214,12 @@ func rewriteValueMIPS64_OpMIPS64ADDV_0(v *Value) bool {
// cond: is32Bit(c)
// result: (ADDVconst [c] x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0.AuxInt
- x := v.Args[1]
if !(is32Bit(c)) {
break
}
@@ -3366,13 +3248,12 @@ func rewriteValueMIPS64_OpMIPS64ADDV_0(v *Value) bool {
// cond:
// result: (SUBV x y)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64NEGV {
break
}
y := v_0.Args[0]
- x := v.Args[1]
v.reset(OpMIPS64SUBV)
v.AddArg(x)
v.AddArg(y)
@@ -3490,13 +3371,12 @@ func rewriteValueMIPS64_OpMIPS64AND_0(v *Value) bool {
// cond: is32Bit(c)
// result: (ANDconst [c] x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0.AuxInt
- x := v.Args[1]
if !(is32Bit(c)) {
break
}
@@ -3509,9 +3389,8 @@ func rewriteValueMIPS64_OpMIPS64AND_0(v *Value) bool {
// cond:
// result: x
for {
- _ = v.Args[1]
- x := v.Args[0]
- if x != v.Args[1] {
+ x := v.Args[1]
+ if x != v.Args[0] {
break
}
v.reset(OpCopy)
@@ -3583,14 +3462,13 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicAdd32_0(v *Value) bool {
// cond: is32Bit(c)
// result: (LoweredAtomicAddconst32 [c] ptr mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
break
}
c := v_1.AuxInt
- mem := v.Args[2]
if !(is32Bit(c)) {
break
}
@@ -3607,14 +3485,13 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicAdd64_0(v *Value) bool {
// cond: is32Bit(c)
// result: (LoweredAtomicAddconst64 [c] ptr mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
break
}
c := v_1.AuxInt
- mem := v.Args[2]
if !(is32Bit(c)) {
break
}
@@ -3631,7 +3508,7 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore32_0(v *Value) bool {
// cond:
// result: (LoweredAtomicStorezero32 ptr mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
@@ -3640,7 +3517,6 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore32_0(v *Value) bool {
if v_1.AuxInt != 0 {
break
}
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicStorezero32)
v.AddArg(ptr)
v.AddArg(mem)
@@ -3653,7 +3529,7 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore64_0(v *Value) bool {
// cond:
// result: (LoweredAtomicStorezero64 ptr mem)
for {
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
@@ -3662,7 +3538,6 @@ func rewriteValueMIPS64_OpMIPS64LoweredAtomicStore64_0(v *Value) bool {
if v_1.AuxInt != 0 {
break
}
- mem := v.Args[2]
v.reset(OpMIPS64LoweredAtomicStorezero64)
v.AddArg(ptr)
v.AddArg(mem)
@@ -3677,14 +3552,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBUload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -3701,7 +3575,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBUload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -3709,7 +3583,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBUload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -3770,14 +3643,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -3794,7 +3666,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -3802,7 +3674,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -3863,7 +3734,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
@@ -3871,7 +3742,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
off2 := v_0.AuxInt
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(is32Bit(off1 + off2)) {
break
}
@@ -3889,7 +3759,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -3898,7 +3768,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
sym2 := v_0.Aux
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -3916,7 +3785,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
@@ -3925,7 +3794,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
if v_1.AuxInt != 0 {
break
}
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstorezero)
v.AuxInt = off
v.Aux = sym
@@ -3939,14 +3807,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVBreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = off
v.Aux = sym
@@ -3961,14 +3828,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVBUreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = off
v.Aux = sym
@@ -3983,14 +3849,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVHreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = off
v.Aux = sym
@@ -4005,14 +3870,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVHUreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = off
v.Aux = sym
@@ -4027,14 +3891,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVWreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = off
v.Aux = sym
@@ -4049,14 +3912,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVWUreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = off
v.Aux = sym
@@ -4074,14 +3936,13 @@ func rewriteValueMIPS64_OpMIPS64MOVBstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4098,7 +3959,7 @@ func rewriteValueMIPS64_OpMIPS64MOVBstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4106,7 +3967,6 @@ func rewriteValueMIPS64_OpMIPS64MOVBstorezero_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4126,14 +3986,13 @@ func rewriteValueMIPS64_OpMIPS64MOVDload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4150,7 +4009,7 @@ func rewriteValueMIPS64_OpMIPS64MOVDload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4158,7 +4017,6 @@ func rewriteValueMIPS64_OpMIPS64MOVDload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4178,7 +4036,7 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
@@ -4186,7 +4044,6 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool {
off2 := v_0.AuxInt
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4204,7 +4061,7 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4213,7 +4070,6 @@ func rewriteValueMIPS64_OpMIPS64MOVDstore_0(v *Value) bool {
sym2 := v_0.Aux
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4234,14 +4090,13 @@ func rewriteValueMIPS64_OpMIPS64MOVFload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4258,7 +4113,7 @@ func rewriteValueMIPS64_OpMIPS64MOVFload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4266,7 +4121,6 @@ func rewriteValueMIPS64_OpMIPS64MOVFload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4286,7 +4140,7 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
@@ -4294,7 +4148,6 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool {
off2 := v_0.AuxInt
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4312,7 +4165,7 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4321,7 +4174,6 @@ func rewriteValueMIPS64_OpMIPS64MOVFstore_0(v *Value) bool {
sym2 := v_0.Aux
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4342,14 +4194,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHUload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4366,7 +4217,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHUload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4374,7 +4225,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHUload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4460,14 +4310,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4484,7 +4333,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4492,7 +4341,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4603,7 +4451,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
@@ -4611,7 +4459,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
off2 := v_0.AuxInt
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4629,7 +4476,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4638,7 +4485,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
sym2 := v_0.Aux
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4656,7 +4502,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
@@ -4665,7 +4511,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
if v_1.AuxInt != 0 {
break
}
- mem := v.Args[2]
v.reset(OpMIPS64MOVHstorezero)
v.AuxInt = off
v.Aux = sym
@@ -4679,14 +4524,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVHreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVHstore)
v.AuxInt = off
v.Aux = sym
@@ -4701,14 +4545,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVHUreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVHstore)
v.AuxInt = off
v.Aux = sym
@@ -4723,14 +4566,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVWreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVHstore)
v.AuxInt = off
v.Aux = sym
@@ -4745,14 +4587,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVWUreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVHstore)
v.AuxInt = off
v.Aux = sym
@@ -4770,14 +4611,13 @@ func rewriteValueMIPS64_OpMIPS64MOVHstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4794,7 +4634,7 @@ func rewriteValueMIPS64_OpMIPS64MOVHstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4802,7 +4642,6 @@ func rewriteValueMIPS64_OpMIPS64MOVHstorezero_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4822,14 +4661,13 @@ func rewriteValueMIPS64_OpMIPS64MOVVload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4846,7 +4684,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4854,7 +4692,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4902,7 +4739,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
@@ -4910,7 +4747,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool {
off2 := v_0.AuxInt
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(is32Bit(off1 + off2)) {
break
}
@@ -4928,7 +4764,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -4937,7 +4773,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool {
sym2 := v_0.Aux
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -4955,7 +4790,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
@@ -4964,7 +4799,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstore_0(v *Value) bool {
if v_1.AuxInt != 0 {
break
}
- mem := v.Args[2]
v.reset(OpMIPS64MOVVstorezero)
v.AuxInt = off
v.Aux = sym
@@ -4981,14 +4815,13 @@ func rewriteValueMIPS64_OpMIPS64MOVVstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -5005,7 +4838,7 @@ func rewriteValueMIPS64_OpMIPS64MOVVstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -5013,7 +4846,6 @@ func rewriteValueMIPS64_OpMIPS64MOVVstorezero_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -5033,14 +4865,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWUload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -5057,7 +4888,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWUload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -5065,7 +4896,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWUload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -5176,14 +5006,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -5200,7 +5029,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWload_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -5208,7 +5037,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWload_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -5372,7 +5200,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
@@ -5380,7 +5208,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
off2 := v_0.AuxInt
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(is32Bit(off1 + off2)) {
break
}
@@ -5398,7 +5225,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -5407,7 +5234,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
sym2 := v_0.Aux
ptr := v_0.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -5425,7 +5251,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVVconst {
@@ -5434,7 +5260,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
if v_1.AuxInt != 0 {
break
}
- mem := v.Args[2]
v.reset(OpMIPS64MOVWstorezero)
v.AuxInt = off
v.Aux = sym
@@ -5448,14 +5273,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVWreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVWstore)
v.AuxInt = off
v.Aux = sym
@@ -5470,14 +5294,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWstore_0(v *Value) bool {
for {
off := v.AuxInt
sym := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
v_1 := v.Args[1]
if v_1.Op != OpMIPS64MOVWUreg {
break
}
x := v_1.Args[0]
- mem := v.Args[2]
v.reset(OpMIPS64MOVWstore)
v.AuxInt = off
v.Aux = sym
@@ -5495,14 +5318,13 @@ func rewriteValueMIPS64_OpMIPS64MOVWstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64ADDVconst {
break
}
off2 := v_0.AuxInt
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(is32Bit(off1 + off2)) {
break
}
@@ -5519,7 +5341,7 @@ func rewriteValueMIPS64_OpMIPS64MOVWstorezero_0(v *Value) bool {
for {
off1 := v.AuxInt
sym1 := v.Aux
- _ = v.Args[1]
+ mem := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVaddr {
break
@@ -5527,7 +5349,6 @@ func rewriteValueMIPS64_OpMIPS64MOVWstorezero_0(v *Value) bool {
off2 := v_0.AuxInt
sym2 := v_0.Aux
ptr := v_0.Args[0]
- mem := v.Args[1]
if !(canMergeSym(sym1, sym2) && is32Bit(off1+off2)) {
break
}
@@ -5580,13 +5401,12 @@ func rewriteValueMIPS64_OpMIPS64NOR_0(v *Value) bool {
// cond: is32Bit(c)
// result: (NORconst [c] x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0.AuxInt
- x := v.Args[1]
if !(is32Bit(c)) {
break
}
@@ -5638,13 +5458,12 @@ func rewriteValueMIPS64_OpMIPS64OR_0(v *Value) bool {
// cond: is32Bit(c)
// result: (ORconst [c] x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0.AuxInt
- x := v.Args[1]
if !(is32Bit(c)) {
break
}
@@ -5657,9 +5476,8 @@ func rewriteValueMIPS64_OpMIPS64OR_0(v *Value) bool {
// cond:
// result: x
for {
- _ = v.Args[1]
- x := v.Args[0]
- if x != v.Args[1] {
+ x := v.Args[1]
+ if x != v.Args[0] {
break
}
v.reset(OpCopy)
@@ -5734,13 +5552,12 @@ func rewriteValueMIPS64_OpMIPS64SGT_0(v *Value) bool {
// cond: is32Bit(c)
// result: (SGTconst [c] x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0.AuxInt
- x := v.Args[1]
if !(is32Bit(c)) {
break
}
@@ -5756,13 +5573,12 @@ func rewriteValueMIPS64_OpMIPS64SGTU_0(v *Value) bool {
// cond: is32Bit(c)
// result: (SGTUconst [c] x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0.AuxInt
- x := v.Args[1]
if !(is32Bit(c)) {
break
}
@@ -6279,9 +6095,8 @@ func rewriteValueMIPS64_OpMIPS64SUBV_0(v *Value) bool {
// cond:
// result: (MOVVconst [0])
for {
- _ = v.Args[1]
- x := v.Args[0]
- if x != v.Args[1] {
+ x := v.Args[1]
+ if x != v.Args[0] {
break
}
v.reset(OpMIPS64MOVVconst)
@@ -6292,7 +6107,7 @@ func rewriteValueMIPS64_OpMIPS64SUBV_0(v *Value) bool {
// cond:
// result: (NEGV x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
@@ -6300,7 +6115,6 @@ func rewriteValueMIPS64_OpMIPS64SUBV_0(v *Value) bool {
if v_0.AuxInt != 0 {
break
}
- x := v.Args[1]
v.reset(OpMIPS64NEGV)
v.AddArg(x)
return true
@@ -6399,13 +6213,12 @@ func rewriteValueMIPS64_OpMIPS64XOR_0(v *Value) bool {
// cond: is32Bit(c)
// result: (XORconst [c] x)
for {
- _ = v.Args[1]
+ x := v.Args[1]
v_0 := v.Args[0]
if v_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0.AuxInt
- x := v.Args[1]
if !(is32Bit(c)) {
break
}
@@ -6418,9 +6231,8 @@ func rewriteValueMIPS64_OpMIPS64XOR_0(v *Value) bool {
// cond:
// result: (MOVVconst [0])
for {
- _ = v.Args[1]
- x := v.Args[0]
- if x != v.Args[1] {
+ x := v.Args[1]
+ if x != v.Args[0] {
break
}
v.reset(OpMIPS64MOVVconst)
@@ -6498,9 +6310,8 @@ func rewriteValueMIPS64_OpMod16_0(v *Value) bool {
// cond:
// result: (Select0 (DIVV (SignExt16to64 x) (SignExt16to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v1 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
@@ -6520,9 +6331,8 @@ func rewriteValueMIPS64_OpMod16u_0(v *Value) bool {
// cond:
// result: (Select0 (DIVVU (ZeroExt16to64 x) (ZeroExt16to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v1 := b.NewValue0(v.Pos, OpZeroExt16to64, typ.UInt64)
@@ -6542,9 +6352,8 @@ func rewriteValueMIPS64_OpMod32_0(v *Value) bool {
// cond:
// result: (Select0 (DIVV (SignExt32to64 x) (SignExt32to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v1 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
@@ -6564,9 +6373,8 @@ func rewriteValueMIPS64_OpMod32u_0(v *Value) bool {
// cond:
// result: (Select0 (DIVVU (ZeroExt32to64 x) (ZeroExt32to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v1 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64)
@@ -6586,9 +6394,8 @@ func rewriteValueMIPS64_OpMod64_0(v *Value) bool {
// cond:
// result: (Select0 (DIVV x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v0.AddArg(x)
@@ -6604,9 +6411,8 @@ func rewriteValueMIPS64_OpMod64u_0(v *Value) bool {
// cond:
// result: (Select0 (DIVVU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v0.AddArg(x)
@@ -6622,9 +6428,8 @@ func rewriteValueMIPS64_OpMod8_0(v *Value) bool {
// cond:
// result: (Select0 (DIVV (SignExt8to64 x) (SignExt8to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVV, types.NewTuple(typ.Int64, typ.Int64))
v1 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
@@ -6644,9 +6449,8 @@ func rewriteValueMIPS64_OpMod8u_0(v *Value) bool {
// cond:
// result: (Select0 (DIVVU (ZeroExt8to64 x) (ZeroExt8to64 y)))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect0)
v0 := b.NewValue0(v.Pos, OpMIPS64DIVVU, types.NewTuple(typ.UInt64, typ.UInt64))
v1 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64)
@@ -6669,7 +6473,6 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
if v.AuxInt != 0 {
break
}
- _ = v.Args[2]
mem := v.Args[2]
v.reset(OpCopy)
v.Type = mem.Type
@@ -6683,10 +6486,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
if v.AuxInt != 1 {
break
}
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AddArg(dst)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVBload, typ.Int8)
@@ -6704,10 +6506,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -6727,10 +6528,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
if v.AuxInt != 2 {
break
}
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = 1
v.AddArg(dst)
@@ -6757,10 +6557,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%4 == 0) {
break
}
@@ -6781,10 +6580,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -6813,10 +6611,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
if v.AuxInt != 4 {
break
}
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = 3
v.AddArg(dst)
@@ -6861,10 +6658,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%8 == 0) {
break
}
@@ -6885,10 +6681,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%4 == 0) {
break
}
@@ -6918,10 +6713,9 @@ func rewriteValueMIPS64_OpMove_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -6974,10 +6768,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool {
if v.AuxInt != 3 {
break
}
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = 2
v.AddArg(dst)
@@ -7013,10 +6806,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -7055,10 +6847,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%4 == 0) {
break
}
@@ -7097,10 +6888,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%8 == 0) {
break
}
@@ -7130,10 +6920,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Alignment()%8 == 0) {
break
}
@@ -7170,10 +6959,9 @@ func rewriteValueMIPS64_OpMove_10(v *Value) bool {
for {
s := v.AuxInt
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
dst := v.Args[0]
src := v.Args[1]
- mem := v.Args[2]
if !(s > 24 || t.(*types.Type).Alignment()%8 != 0) {
break
}
@@ -7197,9 +6985,8 @@ func rewriteValueMIPS64_OpMul16_0(v *Value) bool {
// cond:
// result: (Select1 (MULVU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64))
v0.AddArg(x)
@@ -7215,9 +7002,8 @@ func rewriteValueMIPS64_OpMul32_0(v *Value) bool {
// cond:
// result: (Select1 (MULVU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64))
v0.AddArg(x)
@@ -7231,9 +7017,8 @@ func rewriteValueMIPS64_OpMul32F_0(v *Value) bool {
// cond:
// result: (MULF x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64MULF)
v.AddArg(x)
v.AddArg(y)
@@ -7247,9 +7032,8 @@ func rewriteValueMIPS64_OpMul64_0(v *Value) bool {
// cond:
// result: (Select1 (MULVU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64))
v0.AddArg(x)
@@ -7263,9 +7047,8 @@ func rewriteValueMIPS64_OpMul64F_0(v *Value) bool {
// cond:
// result: (MULD x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64MULD)
v.AddArg(x)
v.AddArg(y)
@@ -7279,9 +7062,8 @@ func rewriteValueMIPS64_OpMul8_0(v *Value) bool {
// cond:
// result: (Select1 (MULVU x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpSelect1)
v0 := b.NewValue0(v.Pos, OpMIPS64MULVU, types.NewTuple(typ.UInt64, typ.UInt64))
v0.AddArg(x)
@@ -7363,9 +7145,8 @@ func rewriteValueMIPS64_OpNeq16_0(v *Value) bool {
// cond:
// result: (SGTU (XOR (ZeroExt16to32 x) (ZeroExt16to64 y)) (MOVVconst [0]))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64)
v1 := b.NewValue0(v.Pos, OpZeroExt16to32, typ.UInt32)
@@ -7388,9 +7169,8 @@ func rewriteValueMIPS64_OpNeq32_0(v *Value) bool {
// cond:
// result: (SGTU (XOR (ZeroExt32to64 x) (ZeroExt32to64 y)) (MOVVconst [0]))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64)
v1 := b.NewValue0(v.Pos, OpZeroExt32to64, typ.UInt64)
@@ -7412,9 +7192,8 @@ func rewriteValueMIPS64_OpNeq32F_0(v *Value) bool {
// cond:
// result: (FPFlagFalse (CMPEQF x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagFalse)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQF, types.TypeFlags)
v0.AddArg(x)
@@ -7430,9 +7209,8 @@ func rewriteValueMIPS64_OpNeq64_0(v *Value) bool {
// cond:
// result: (SGTU (XOR x y) (MOVVconst [0]))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64)
v0.AddArg(x)
@@ -7450,9 +7228,8 @@ func rewriteValueMIPS64_OpNeq64F_0(v *Value) bool {
// cond:
// result: (FPFlagFalse (CMPEQD x y))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64FPFlagFalse)
v0 := b.NewValue0(v.Pos, OpMIPS64CMPEQD, types.TypeFlags)
v0.AddArg(x)
@@ -7468,9 +7245,8 @@ func rewriteValueMIPS64_OpNeq8_0(v *Value) bool {
// cond:
// result: (SGTU (XOR (ZeroExt8to64 x) (ZeroExt8to64 y)) (MOVVconst [0]))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64)
v1 := b.NewValue0(v.Pos, OpZeroExt8to64, typ.UInt64)
@@ -7491,9 +7267,8 @@ func rewriteValueMIPS64_OpNeqB_0(v *Value) bool {
// cond:
// result: (XOR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v.AddArg(x)
v.AddArg(y)
@@ -7507,9 +7282,8 @@ func rewriteValueMIPS64_OpNeqPtr_0(v *Value) bool {
// cond:
// result: (SGTU (XOR x y) (MOVVconst [0]))
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SGTU)
v0 := b.NewValue0(v.Pos, OpMIPS64XOR, typ.UInt64)
v0.AddArg(x)
@@ -7526,9 +7300,8 @@ func rewriteValueMIPS64_OpNilCheck_0(v *Value) bool {
// cond:
// result: (LoweredNilCheck ptr mem)
for {
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64LoweredNilCheck)
v.AddArg(ptr)
v.AddArg(mem)
@@ -7579,9 +7352,8 @@ func rewriteValueMIPS64_OpOr16_0(v *Value) bool {
// cond:
// result: (OR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64OR)
v.AddArg(x)
v.AddArg(y)
@@ -7593,9 +7365,8 @@ func rewriteValueMIPS64_OpOr32_0(v *Value) bool {
// cond:
// result: (OR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64OR)
v.AddArg(x)
v.AddArg(y)
@@ -7607,9 +7378,8 @@ func rewriteValueMIPS64_OpOr64_0(v *Value) bool {
// cond:
// result: (OR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64OR)
v.AddArg(x)
v.AddArg(y)
@@ -7621,9 +7391,8 @@ func rewriteValueMIPS64_OpOr8_0(v *Value) bool {
// cond:
// result: (OR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64OR)
v.AddArg(x)
v.AddArg(y)
@@ -7635,9 +7404,8 @@ func rewriteValueMIPS64_OpOrB_0(v *Value) bool {
// cond:
// result: (OR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64OR)
v.AddArg(x)
v.AddArg(y)
@@ -7676,9 +7444,8 @@ func rewriteValueMIPS64_OpRsh16Ux16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> (ZeroExt16to64 x) (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -7709,9 +7476,8 @@ func rewriteValueMIPS64_OpRsh16Ux32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> (ZeroExt16to64 x) (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -7742,9 +7508,8 @@ func rewriteValueMIPS64_OpRsh16Ux64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> (ZeroExt16to64 x) y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -7771,9 +7536,8 @@ func rewriteValueMIPS64_OpRsh16Ux8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> (ZeroExt16to64 x) (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -7804,9 +7568,8 @@ func rewriteValueMIPS64_OpRsh16x16_0(v *Value) bool {
// result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
v0.AddArg(x)
@@ -7837,9 +7600,8 @@ func rewriteValueMIPS64_OpRsh16x32_0(v *Value) bool {
// result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
v0.AddArg(x)
@@ -7870,9 +7632,8 @@ func rewriteValueMIPS64_OpRsh16x64_0(v *Value) bool {
// result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
v0.AddArg(x)
@@ -7899,9 +7660,8 @@ func rewriteValueMIPS64_OpRsh16x8_0(v *Value) bool {
// result: (SRAV (SignExt16to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt16to64, typ.Int64)
v0.AddArg(x)
@@ -7932,9 +7692,8 @@ func rewriteValueMIPS64_OpRsh32Ux16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> (ZeroExt32to64 x) (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -7965,9 +7724,8 @@ func rewriteValueMIPS64_OpRsh32Ux32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> (ZeroExt32to64 x) (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -7998,9 +7756,8 @@ func rewriteValueMIPS64_OpRsh32Ux64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> (ZeroExt32to64 x) y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8027,9 +7784,8 @@ func rewriteValueMIPS64_OpRsh32Ux8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> (ZeroExt32to64 x) (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8060,9 +7816,8 @@ func rewriteValueMIPS64_OpRsh32x16_0(v *Value) bool {
// result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
v0.AddArg(x)
@@ -8093,9 +7848,8 @@ func rewriteValueMIPS64_OpRsh32x32_0(v *Value) bool {
// result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
v0.AddArg(x)
@@ -8126,9 +7880,8 @@ func rewriteValueMIPS64_OpRsh32x64_0(v *Value) bool {
// result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
v0.AddArg(x)
@@ -8155,9 +7908,8 @@ func rewriteValueMIPS64_OpRsh32x8_0(v *Value) bool {
// result: (SRAV (SignExt32to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt32to64, typ.Int64)
v0.AddArg(x)
@@ -8188,9 +7940,8 @@ func rewriteValueMIPS64_OpRsh64Ux16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> x (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8219,9 +7970,8 @@ func rewriteValueMIPS64_OpRsh64Ux32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> x (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8250,9 +8000,8 @@ func rewriteValueMIPS64_OpRsh64Ux64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> x y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8277,9 +8026,8 @@ func rewriteValueMIPS64_OpRsh64Ux8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> x (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8308,9 +8056,8 @@ func rewriteValueMIPS64_OpRsh64x16_0(v *Value) bool {
// result: (SRAV x (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v.AddArg(x)
v0 := b.NewValue0(v.Pos, OpMIPS64OR, t)
@@ -8339,9 +8086,8 @@ func rewriteValueMIPS64_OpRsh64x32_0(v *Value) bool {
// result: (SRAV x (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v.AddArg(x)
v0 := b.NewValue0(v.Pos, OpMIPS64OR, t)
@@ -8370,9 +8116,8 @@ func rewriteValueMIPS64_OpRsh64x64_0(v *Value) bool {
// result: (SRAV x (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v.AddArg(x)
v0 := b.NewValue0(v.Pos, OpMIPS64OR, t)
@@ -8397,9 +8142,8 @@ func rewriteValueMIPS64_OpRsh64x8_0(v *Value) bool {
// result: (SRAV x (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v.AddArg(x)
v0 := b.NewValue0(v.Pos, OpMIPS64OR, t)
@@ -8428,9 +8172,8 @@ func rewriteValueMIPS64_OpRsh8Ux16_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt16to64 y))) (SRLV <t> (ZeroExt8to64 x) (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8461,9 +8204,8 @@ func rewriteValueMIPS64_OpRsh8Ux32_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt32to64 y))) (SRLV <t> (ZeroExt8to64 x) (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8494,9 +8236,8 @@ func rewriteValueMIPS64_OpRsh8Ux64_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) y)) (SRLV <t> (ZeroExt8to64 x) y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8523,9 +8264,8 @@ func rewriteValueMIPS64_OpRsh8Ux8_0(v *Value) bool {
// result: (AND (NEGV <t> (SGTU (MOVVconst <typ.UInt64> [64]) (ZeroExt8to64 y))) (SRLV <t> (ZeroExt8to64 x) (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64AND)
v0 := b.NewValue0(v.Pos, OpMIPS64NEGV, t)
v1 := b.NewValue0(v.Pos, OpMIPS64SGTU, typ.Bool)
@@ -8556,9 +8296,8 @@ func rewriteValueMIPS64_OpRsh8x16_0(v *Value) bool {
// result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt16to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt16to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
v0.AddArg(x)
@@ -8589,9 +8328,8 @@ func rewriteValueMIPS64_OpRsh8x32_0(v *Value) bool {
// result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt32to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt32to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
v0.AddArg(x)
@@ -8622,9 +8360,8 @@ func rewriteValueMIPS64_OpRsh8x64_0(v *Value) bool {
// result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU y (MOVVconst <typ.UInt64> [63]))) y))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
v0.AddArg(x)
@@ -8651,9 +8388,8 @@ func rewriteValueMIPS64_OpRsh8x8_0(v *Value) bool {
// result: (SRAV (SignExt8to64 x) (OR <t> (NEGV <t> (SGTU (ZeroExt8to64 y) (MOVVconst <typ.UInt64> [63]))) (ZeroExt8to64 y)))
for {
t := v.Type
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SRAV)
v0 := b.NewValue0(v.Pos, OpSignExt8to64, typ.Int64)
v0.AddArg(x)
@@ -8798,7 +8534,7 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool {
if v_0.Op != OpMIPS64MULVU {
break
}
- _ = v_0.Args[1]
+ x := v_0.Args[1]
v_0_0 := v_0.Args[0]
if v_0_0.Op != OpMIPS64MOVVconst {
break
@@ -8806,7 +8542,6 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool {
if v_0_0.AuxInt != -1 {
break
}
- x := v_0.Args[1]
v.reset(OpMIPS64NEGV)
v.AddArg(x)
return true
@@ -8881,7 +8616,7 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool {
if v_0.Op != OpMIPS64MULVU {
break
}
- _ = v_0.Args[1]
+ x := v_0.Args[1]
v_0_0 := v_0.Args[0]
if v_0_0.Op != OpMIPS64MOVVconst {
break
@@ -8889,7 +8624,6 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool {
if v_0_0.AuxInt != 1 {
break
}
- x := v_0.Args[1]
v.reset(OpCopy)
v.Type = x.Type
v.AddArg(x)
@@ -8926,13 +8660,12 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool {
if v_0.Op != OpMIPS64MULVU {
break
}
- _ = v_0.Args[1]
+ x := v_0.Args[1]
v_0_0 := v_0.Args[0]
if v_0_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0_0.AuxInt
- x := v_0.Args[1]
if !(isPowerOfTwo(c)) {
break
}
@@ -8949,7 +8682,7 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool {
if v_0.Op != OpMIPS64MULVU {
break
}
- _ = v_0.Args[1]
+ x := v_0.Args[1]
v_0_0 := v_0.Args[0]
if v_0_0.Op != OpMIPS64MOVVconst {
break
@@ -8957,7 +8690,6 @@ func rewriteValueMIPS64_OpSelect1_0(v *Value) bool {
if v_0_0.AuxInt != -1 {
break
}
- x := v_0.Args[1]
v.reset(OpMIPS64NEGV)
v.AddArg(x)
return true
@@ -9034,7 +8766,7 @@ func rewriteValueMIPS64_OpSelect1_10(v *Value) bool {
if v_0.Op != OpMIPS64MULVU {
break
}
- _ = v_0.Args[1]
+ x := v_0.Args[1]
v_0_0 := v_0.Args[0]
if v_0_0.Op != OpMIPS64MOVVconst {
break
@@ -9042,7 +8774,6 @@ func rewriteValueMIPS64_OpSelect1_10(v *Value) bool {
if v_0_0.AuxInt != 1 {
break
}
- x := v_0.Args[1]
v.reset(OpCopy)
v.Type = x.Type
v.AddArg(x)
@@ -9078,13 +8809,12 @@ func rewriteValueMIPS64_OpSelect1_10(v *Value) bool {
if v_0.Op != OpMIPS64MULVU {
break
}
- _ = v_0.Args[1]
+ x := v_0.Args[1]
v_0_0 := v_0.Args[0]
if v_0_0.Op != OpMIPS64MOVVconst {
break
}
c := v_0_0.AuxInt
- x := v_0.Args[1]
if !(isPowerOfTwo(c)) {
break
}
@@ -9372,10 +9102,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool {
// result: (MOVBstore ptr val mem)
for {
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Size() == 1) {
break
}
@@ -9390,10 +9119,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool {
// result: (MOVHstore ptr val mem)
for {
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Size() == 2) {
break
}
@@ -9408,10 +9136,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool {
// result: (MOVWstore ptr val mem)
for {
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Size() == 4 && !is32BitFloat(val.Type)) {
break
}
@@ -9426,10 +9153,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool {
// result: (MOVVstore ptr val mem)
for {
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Size() == 8 && !is64BitFloat(val.Type)) {
break
}
@@ -9444,10 +9170,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool {
// result: (MOVFstore ptr val mem)
for {
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Size() == 4 && is32BitFloat(val.Type)) {
break
}
@@ -9462,10 +9187,9 @@ func rewriteValueMIPS64_OpStore_0(v *Value) bool {
// result: (MOVDstore ptr val mem)
for {
t := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
ptr := v.Args[0]
val := v.Args[1]
- mem := v.Args[2]
if !(t.(*types.Type).Size() == 8 && is64BitFloat(val.Type)) {
break
}
@@ -9482,9 +9206,8 @@ func rewriteValueMIPS64_OpSub16_0(v *Value) bool {
// cond:
// result: (SUBV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SUBV)
v.AddArg(x)
v.AddArg(y)
@@ -9496,9 +9219,8 @@ func rewriteValueMIPS64_OpSub32_0(v *Value) bool {
// cond:
// result: (SUBV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SUBV)
v.AddArg(x)
v.AddArg(y)
@@ -9510,9 +9232,8 @@ func rewriteValueMIPS64_OpSub32F_0(v *Value) bool {
// cond:
// result: (SUBF x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SUBF)
v.AddArg(x)
v.AddArg(y)
@@ -9524,9 +9245,8 @@ func rewriteValueMIPS64_OpSub64_0(v *Value) bool {
// cond:
// result: (SUBV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SUBV)
v.AddArg(x)
v.AddArg(y)
@@ -9538,9 +9258,8 @@ func rewriteValueMIPS64_OpSub64F_0(v *Value) bool {
// cond:
// result: (SUBD x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SUBD)
v.AddArg(x)
v.AddArg(y)
@@ -9552,9 +9271,8 @@ func rewriteValueMIPS64_OpSub8_0(v *Value) bool {
// cond:
// result: (SUBV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SUBV)
v.AddArg(x)
v.AddArg(y)
@@ -9566,9 +9284,8 @@ func rewriteValueMIPS64_OpSubPtr_0(v *Value) bool {
// cond:
// result: (SUBV x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64SUBV)
v.AddArg(x)
v.AddArg(y)
@@ -9653,10 +9370,9 @@ func rewriteValueMIPS64_OpWB_0(v *Value) bool {
// result: (LoweredWB {fn} destptr srcptr mem)
for {
fn := v.Aux
- _ = v.Args[2]
+ mem := v.Args[2]
destptr := v.Args[0]
srcptr := v.Args[1]
- mem := v.Args[2]
v.reset(OpMIPS64LoweredWB)
v.Aux = fn
v.AddArg(destptr)
@@ -9670,9 +9386,8 @@ func rewriteValueMIPS64_OpXor16_0(v *Value) bool {
// cond:
// result: (XOR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v.AddArg(x)
v.AddArg(y)
@@ -9684,9 +9399,8 @@ func rewriteValueMIPS64_OpXor32_0(v *Value) bool {
// cond:
// result: (XOR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v.AddArg(x)
v.AddArg(y)
@@ -9698,9 +9412,8 @@ func rewriteValueMIPS64_OpXor64_0(v *Value) bool {
// cond:
// result: (XOR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v.AddArg(x)
v.AddArg(y)
@@ -9712,9 +9425,8 @@ func rewriteValueMIPS64_OpXor8_0(v *Value) bool {
// cond:
// result: (XOR x y)
for {
- _ = v.Args[1]
- x := v.Args[0]
y := v.Args[1]
+ x := v.Args[0]
v.reset(OpMIPS64XOR)
v.AddArg(x)
v.AddArg(y)
@@ -9731,7 +9443,6 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
if v.AuxInt != 0 {
break
}
- _ = v.Args[1]
mem := v.Args[1]
v.reset(OpCopy)
v.Type = mem.Type
@@ -9745,9 +9456,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
if v.AuxInt != 1 {
break
}
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64MOVBstore)
v.AddArg(ptr)
v0 := b.NewValue0(v.Pos, OpMIPS64MOVVconst, typ.UInt64)
@@ -9764,9 +9474,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -9785,9 +9494,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
if v.AuxInt != 2 {
break
}
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = 1
v.AddArg(ptr)
@@ -9812,9 +9520,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%4 == 0) {
break
}
@@ -9834,9 +9541,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -9863,9 +9569,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
if v.AuxInt != 4 {
break
}
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = 3
v.AddArg(ptr)
@@ -9904,9 +9609,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%8 == 0) {
break
}
@@ -9926,9 +9630,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%4 == 0) {
break
}
@@ -9956,9 +9659,8 @@ func rewriteValueMIPS64_OpZero_0(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -10005,9 +9707,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool {
if v.AuxInt != 3 {
break
}
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
v.reset(OpMIPS64MOVBstore)
v.AuxInt = 2
v.AddArg(ptr)
@@ -10039,9 +9740,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%2 == 0) {
break
}
@@ -10076,9 +9776,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%4 == 0) {
break
}
@@ -10113,9 +9812,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%8 == 0) {
break
}
@@ -10143,9 +9841,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool {
break
}
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(t.(*types.Type).Alignment()%8 == 0) {
break
}
@@ -10178,9 +9875,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool {
for {
s := v.AuxInt
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !(s%8 == 0 && s > 24 && s <= 8*128 && t.(*types.Type).Alignment()%8 == 0 && !config.noDuffDevice) {
break
}
@@ -10196,9 +9892,8 @@ func rewriteValueMIPS64_OpZero_10(v *Value) bool {
for {
s := v.AuxInt
t := v.Aux
- _ = v.Args[1]
- ptr := v.Args[0]
mem := v.Args[1]
+ ptr := v.Args[0]
if !((s > 8*128 || config.noDuffDevice) || t.(*types.Type).Alignment()%8 != 0) {
break
}