マルチディスプレイWindowsタッチパネルフルスクリーン環境で新しいInput Systemを使うとハマる

結論

ハマったので結論だけ書いておくと、UnityのInput Systemを使う場合、セカンダリディスプレイによるタッチ操作が機能しなくなります。
→フォーラムにも何個か報告が上がってる
https://forum.unity.com/threads/multidisplay-not-working.1328529/
https://forum.unity.com/threads/touch-input-not-working-correctly-on-windows-touch-screen.1266944/
バグ レポートに関して Unity から返事がありましたが、「セカンダリ ディスプレイでのタッチ イベント」をサポートしていないため、これを修正しないとのことでした。彼らはモバイル デバイスのタッチ スクリーンのみをサポートしたいと考えているのでしょうか。残念ながら、幸いなことに、私たちはすでに Unreal Engine に移行しています。

https://forum.unity.com/threads/touch-input-not-working-correctly-on-windows-touch-screen.1266944/#post-8353953

Windows向けビルドでタッチをサポートしたい場合はどうすればいいか

恐らく起きた事象としては「サイネージのようなタッチ対応デバイスでアプリを動かしたいというニーズが少なすぎて、ゲームやVR、モバイルデバイス向けのシステム改善を優先した」ということになりそう。
私が今作っているアプリが「セカンダリディスプレイに投影された状況”でも”タッチ操作で動かしたい」ので、旧Input Managerを使い続ける予定ですがドキュメンテーションにも何もこのバグについての記載がなかったので何が悪かったのだろうとずっとEventSystemの挙動を見ていたので、この結末はちょっと辛かった。

日本語の状況報告が見つからなかったので誰かの参考になれば幸い。